Fördern Sie verwertbare Erkenntnisse, verlassen Sie sich auf Hardware-basierte Sicherheit und stellen Sie dynamische Servicelieferung mit skalierbaren Intel® Xeon® Prozessoren bereit. Sie unterstützt Hybrid-Cloud-Infrastrukturen und anspruchsvollste Anwendungen, wie In-Memory-Analysen, künstliche Intelligenz, autonomes Fahren, High-Performance-Computing (HPC) und Netzwerktransformation.

Entdecken Sie die Vorteile der Plattform ›

Intel® Xeon® Platinum Prozessoren

  • Anspruchsvolle, aufgabenkritische AI, Analysen, Hybrid-Cloud-Workloads
  • Beste Leistung
  • 2,4,8+ Sockel-Skalierbarkeit

Intel® Xeon® Gold Prozessoren

  • Workload-optimierte Performance, fortschrittliche Zuverlässigkeit
  • Höchste Speichergeschwindigkeit, Kapazität und Vernetzung
  • Erweiterte 2-4 Sockel-Skalierbarkeit

Intel® Xeon® Silver Prozessoren

  • Grundlegende Leistung und Energieeffizienz
  • Verbesserte Speichergeschwindigkeit
  • Datenverarbeitung, Netzwerk und Speicher in moderatem Bereich

Intel® Xeon® Bronze Prozessoren

  • Erschwingliche Performance für kleine Unternehmen und Basis-Speicher
  • Hardware-verstärkte Sicherheitsmechanismen
  • Zuverlässige 2-Sockel-Skalierbarkeit

Nutzen Sie Ihre Investitionen in die Cloud optimal

Intel® Technik bietet Ihnen das Verhältnis aus herausragender Leistung und Mehrwert, das Sie brauchen. Wichtige, datenintensive Workloads wie Datenbanken, High-Performance-Computing (HPC) und Websites sind auf Clouds mit Intel® Architektur leistungsfähiger – zu geringeren Gesamtbetriebskosten.1 2 3 4 5

2,84x höhere Leistung

Bis zu 2,84-mal besseres Preis-Leistungs-Verhältnis bei Datenbank-Workloads, einschließlich HammerDB PostgreSQL* und MongoDB*.1

Weitere Infos

4,15x höhere Leistung

Bis zu 4,15-mal besseres Preis-Leistungs-Verhältnis auf Hochleistungs-LINPACK* und LAMMPS*.2

Weitere Infos

1,74x höhere Leistung

Besseres Preis-Leistungs-Verhältnis auf serverseitigem Java und 1,74-mal besseres Preis-Leistungs-Verhältnis auf WordPress PHP/HHVM.3

Weitere Infos

2,25x höhere Leistung

Bis zu 2,25-mal besseres Preis-Leistungs-Verhältnis bei Speicherbandbreiten-Anwendungen.4

Weitere Infos

Intels datenzentriertes Portfolio

Schneller übertragen

Mit Intel® Ethernet-Produkten Daten schneller übertragen

Mit Intel® Ethernet-Produkten können Sie Daten schneller übertragen und die Bereitstellung neuer Dienste und Funktionalität beschleunigen.

Weitere Informationen über Intel® Ethernet-Produkte ›

Mehr speichern

Ein einzigartiger technischer Fortschritt

Mit der Intel® Optane™ DC Technik lassen sich größere, komplexere Datenbestände besser optimieren, speichern und übertragen. Diese innovative Technik, die in verschiedenen Produkten und Lösungen zum Einsatz kommt, füllt die kritische Lücke in der Massenspeicher- und Arbeitsspeicherhierarchie, indem sie nichtflüchtigen Speicher, große Arbeitsspeicherbereiche, schnelles Caching und hohe Massenspeichergeschwindigkeit bereitstellt.

Persistenter Intel® Optane™ DC Speicher ›

Intel® Optane™ DC SSDs ›

Alles verarbeiten

Starke Leistung für schnelle Erkenntnisse

Intels führende, Workload-optimierte Plattformen mit integrierter KI-Beschleunigung stellen eine perfekt abgestimmte Leistungsbasis bereit, um die transformative Wirkung von Daten von der Multi-Cloud-Umgebung bis zum intelligenten Netzwerkrand und wieder zurück zu beschleunigen.

Intel® Xeon® Prozessoren ›

Intel® FPGA ›

Skalierbare Intel® Xeon® Plattform: Die Basis für datenzentrierte Innovation

Bahnbrechende Plattformneuerungen fördern die digitale Transformation.

Starke Leistung für schnelle Erkenntnisse

Die zweite Generation der skalierbaren Intel® Xeon® Prozessorreihe bietet führende, Workload-optimierte Leistungsmerkmale mit integrierter KI-Beschleunigung. Sie stellt eine perfekt abgestimmte Leistungsbasis bereit, um die transformative Wirkung von Daten von der Multi-Cloud-Umgebung bis zum intelligenten Netzwerkrand und wieder zurück zu beschleunigen.

Plattform-Benchmarks anzeigen

Ausfallsicherheit mit Hardware-verstärkter Sicherheit

Von Grund auf verbesserter Schutz für Ihre Daten. Intels Hardware-verstärkte Sicherheitsmechanismen tragen zur Abwehr von Malware bei, bewahren aber gleichzeitig die Integrität der Aufgaben und Leistungseigenschaften. Effiziente Verschlüsselung sorgt für zuverlässig bereitgestellte Datendienste – im Ruhezustand, bei Verwendung und bei der Datenübertragung.

Intel® Sicherheitsbibliotheken für das Rechenzentrum (Intel® SecL – DC)

Aufbau einer vertrauenswürdigen Infrastruktur

Agile Bereitstellung von Diensten

Plattforminnovationen und Hardware-verstärkte Virtualisierung der Rechen-, Netzwerk- und Massenspeicherinfrastruktur mit Unterstützung für eine neue Klasse von innovativem Speicher, der kosteneffiziente, flexible und skalierbare Multi-Cloud-Umgebungen ermöglicht, um im Business-to-Business- und im Business-to-Consumer-Bereich gleichbleibend hochwertige Eigenschaften bereitzustellen.

Intel® Technik für das Infrastrukturmanagement

Die Transformation datenzentrierter Aufgaben

Erfahren Sie, wie die zweite Generation der skalierbaren Intel® Xeon® Prozessorreihe und Intels führendes datenzentriertes Portfolio bei der Modernisierung Ihrer Infrastruktur helfen und die Gewinnung von Erkenntnissen im KI-, Analyse-, Cloud- und HPC-Bereich beschleunigen kann.

Weitere Informationen

Mit Intel® Select Solutions schneller zu geschäftlichem Nutzen

Vereinfachen Sie die Bereitstellung von Rechenzentrumsinfrastruktur mit Lösungen, die rigoros mittels Benchmarks getestet wurden und für praxisorientierte Leistungsanforderungen optimiert und verifiziert sind. Diese Lösungen beschleunigen die Bereitstellung einer auf Intel® Xeon® Prozessoren basierenden Infrastruktur für die unternehmenskritischen Aufgaben von heute.

Weitere Informationen

Weitere Informationen über Intels datenzentrierte Plattform

In diesem Video erfahren Sie, wie Intels datenzentriertes Produktportfolio ausgehend vom Herzen des Rechenzentrums bis zum Netzwerkrand und wieder zurück Vorteile erschließt.

Produkt- und Leistungsinformationen

1

Die von Intel P2CA berechneten Ergebnisse basieren auf AWS-Preisen (USD/Stunde, Standardlaufzeit 1 Jahr, keine Vorlaufzeit) vom 12. Januar 2019.
Tests auf Leistung-pro-Dollar-Basis wurden auf AWS* EC2 R5- und R5a-Instanzen durchgeführt, (https://aws.amazon.com/ec2/instance-types/), wobei die Leistung pro Dollar eines 96 vCPU skalierbaren Intel® Xeon® Prozessors mit der Leistung pro Dollar eines AMD EPYC* Prozessors verglichen wurde.

Workload: HammerDB* PostgreSQL*
Ergebnisse: Leistung pro Dollar von AMD EPYC = Ausgangswert von 1; Leistung pro Dollar des skalierbaren Intel® Xeon® Prozessors = 1,85-fache Leistung (höher ist besser)
Datenbank: HammerDB – PostgreSQL (höher ist besser):
AWS R5.24xlarge (Intel) Instanz, HammerDB 3.0 PostgreSQL 10.2, Speicher: 768 GB, Hypervisor: KVM; Speichertyp: EBS io1, Festplattenvolumen 200 GB, Gesamtspeicher 200 GB, Docker-Version: 18.06.1-ce, RedHat* 7.6 Enterprise Linux, 3.10.0-957.el7.x86_64, 6400 MB shared_buffer, 256 Lager, 96 Benutzer. Ergebnis „NOPM“ 439931, gemessen von Intel am 11.12.18.–14.12.18.
AWS R5a.24xlarge (AMD) Instanz, HammerDB 3.0 PostgreSQL 10.2, Speicher: 768 GB, Hypervisor: KVM; Speichertyp: EBS io1, Festplattenvolumen 200 GB, Gesamtspeicher 200 GB, Docker-Version: 18.06.1-7.6, RedHat* Enterprise Linux, 3.10.0-957.el7.x86_64, 6400 MB shared_buffer, 256 Lager, 96 Benutzer. Ergebnis „NOPM“ 212903, gemessen von Intel am 20.12.18.

Workload: MongoDB*
Ergebnisse: Leistung pro Dollar von AMD EPYC = Ausgangswert von 1; Leistung pro Dollar des skalierbaren Intel® Xeon® Prozessors = 2,84-fache Leistung (höher ist besser)
Datenbank: MongoDB (höher ist besser):
AWS R5.24xlarge (Intel) Instanz, MongoDB v4.0, Journal deaktiviert, Synchronisierung mit Dateisystem deaktiviert, wiredTigeCache=27 GB, maxPoolSize = 256; 7 MongoDB-Instanzen, 14 Client-VMs, 1 YCSB-Client pro VM, 96 Threads pro YCSB-Client, RedHat* Enterprise Linux 7.5, Kernel 3.10.0-862.el7.x86_64, Ergebnis 1229288 ops/Sek, gemessen von Intel am 10.12.2018.
AWS R5a.24xlarge (AMD) Instance, MongoDB v4.0, Journal deaktiviert, Synchronisierung mit Dateisystem deaktiviert, wiredTigeCache=27 GB, maxPoolSize = 256; 7 MongoDB-Instanzen, 14 Client-VMs, 1 YCSB-Client pro VM, 96 Threads pro YCSB-Client, RedHat* Enterprise Linux 7.5, Kernel 3.10.0-862.el7.x86_x86, Ergebnis 388596 ops/Sek, gemessen von Intel am 10.12.2018.
Ausführlichere Informationen finden Sie unter www.intel.de/benchmarks.

2

Die von Intel P2CA berechneten Ergebnisse basieren auf AWS-Preisen (USD/Stunde, Standardlaufzeit 1 Jahr, keine Vorlaufzeit) vom 12. Januar 2019.
Tests auf Leistung-pro-Dollar-Basis wurden auf AWS* EC2 M5- und M5a-Instanzen durchgeführt, (https://aws.amazon.com/ec2/instance-types/), wobei die Leistung pro Dollar eines 96 vCPU skalierbaren Intel® Xeon® Prozessors mit der Leistung pro Dollar eines AMD EPYC* Prozessors verglichen wurde.

Workload: LAMMPS*
Ergebnisse: Leistung pro Dollar von AMD EPYC = Ausgangswert von 1; Leistung pro Dollar des skalierbaren Intel® Xeon® Prozessors = 4,15-fache Leistung (höher ist besser)
HPC Materials Science – LAMMPS (höher ist besser):
AWS M5.24xlarge (Intel) Instanz, LAMMPS-Version: 22.08.2018 (Code: https://lammps.sandia.gov/download.html), Workload: Wasser – 512K Partikel, Intel ICC 18.0.3.20180410, Intel® MPI Library für Linux* OS, Version 2018 Update 3 Build 20180411, 48 MPI Ranks, RedHat* Enterprise Linux 7.5, Kernel 3.10.0-862.el7.x86_64, OMP_NUM_THREADS=2, Score 137,5 Schritte/Sek, gemessen von Intel am 31.10.18.
AWS M5a.24xlarge (AMD) Instanz, LAMMPS-Version: 22.08.2018 (Code: https://lammps.sandia.gov/download.html), Workload: Wasser – 512K Partikel, Intel ICC 18.0.3.20180410, Intel® MPI Library für Linux* OS, Version 2018 Update 3 Build 20180411, 48 MPI Ranks, RedHat* Enterprise Linux 7.5, Kernel 3.10.0-862.el7.x86_64, OMP_NUM_THREADS=2, Score 55,8 Schritte/Sek, gemessen von Intel am 07.11.18.
Änderungen für AMD zur Unterstützung von AVX2 (AMD unterstützt nur AVX2, daher waren diese Änderungen erforderlich):
sed -i 's/-xHost/-xCORE-AVX2/g' Makefile.intel_cpu_intelmpi
sed -i 's/-qopt-zmm-usage=high/-xCORE-AVX2/g' Makefile.intel_cpu_intelmpi

Workload: Hochleistungs-Linpack*
Ergebnisse: Leistung pro Dollar von AMD EPYC = Ausgangswert von 1; Leistung pro Dollar des skalierbaren Intel® Xeon® Prozessors = 4,15-fache Leistung (höher ist besser)
HPC-Linpack (höher ist besser):
AWS M5.24xlarge (Intel) Instanz, HP Linpack Version 2.2 (https://software.intel.com/en-us/articles/intel-mkl-benchmarks-suite Directory: benchmarks_2018.3.222/linux/mkl/benchmarks/mp_linpack/bin_intel/intel64), Intel ICC 18.0.3.20180410 mit AVX512, Intel® MPI Library für Linux* OS, Version 2018 Update 3 Build 20180411, RedHat* Enterprise Linux 7.5, Kernel 3.10.0-862.el7.x86_64, OMP_NUM_THREADS=24, 2 MPI-Prozesse, Ergebnis 3152 GB/s, gemessen von Intel am 31.10.18.
AWS M5a.24xlarge (AMD) Instanz, HP Linpack Version 2.2, (HPL-Quelle: http://www.netlib.org/benchmark/hpl/hpl-2.2.tar.gz; Version 2.2; icc (ICC) 18.0.2 20180210 kompiliert und Link zur BLIS Library-Version 0.4.0; https://github.com/flame/blis; Addt’l Compiler flags: -O3 -funroll-loops -W -Wall –qopenmp; make arch=zen OMP_NUM_THREADS=8; 6 MPI Prozesse.), Intel ICC 18.0.3.20180410 mit AVX2, Intel® MPI Library für Linux* OS, Version 2018 Update 3 Build 20180411, RedHat* Enterprise Linux 7.5, Kernel 3.10.0-862.el7.x86_64, OMP_NUM_THREADS=8, 6 MPI-Prozesse, Ergebnis 677,7 GB/s, gemessen von Intel am 07.11.18.

3

Die von Intel P2CA berechneten Ergebnisse basieren auf AWS-Preisen (USD/Stunde, Standardlaufzeit 1 Jahr, keine Vorlaufzeit) vom 12. Januar 2019.
Tests auf Leistung-pro-Dollar-Basis wurden auf AWS* EC2 M5- und M5a-Instanzen durchgeführt, (https://aws.amazon.com/ec2/instance-types/), wobei die Leistung pro Dollar eines 96 vCPU skalierbaren Intel® Xeon® Prozessors mit der Leistung pro Dollar eines AMD EPYC* Prozessors verglichen wurde.

Workload: Serverseitiges Java* 1 JVM
Ergebnisse: Leistung pro Dollar von AMD EPYC = Ausgangswert von 1; Skalierbarer Intel® Xeon® Prozessor, Leistung pro Dollar = 1,74-fache Leistung (höher ist besser)
Serverseitiges Java (höher ist besser):
AWS M5.24xlarge (Intel) Instanz, Java Server Benchmark, nicht NUMA-gebunden, 2JVM, OpenJDK 10.0.1, RedHat* Enterprise Linux 7.5, Kernel 3.10.0-862.el7.x86_64, Ergebnis 101767 Transaktionen/Sek, gemessen von Intel am 16.11.18.
AWS M5a.24xlarge (AMD) Instanz, Java Server Benchmark, nicht NUMA-gebunden, 2JVM, OpenJDK 10.0.1, RedHat* Enterprise Linux 7.5, Kernel 3.10.0-862.el7.x86_64, Ergebnis 52068 Transaktionen/Sek, gemessen von Intel am 16.11.18.

Workload: Wordpress* PHP/HHVM*
Ergebnisse: Leistung pro Dollar von AMD EPYC = Ausgangswert von 1; Skalierbarer Intel® Xeon® Prozessor, Leistung pro Dollar = 1,75-fache Leistung (höher ist besser)
Web Front End Wordpress (höher ist besser):
AWS M5.24xlarge (Intel) Instanz, oss-performance/wordpress Version 4.2.0; Version 10.2.19-MariaDB-1:10.2.19+maria~bionic; Workload Version': U'4.2.0; Client-Threads: 200; PHP 7.2.12-1; perfkitbenchmarker_version="v1.12.0-944-g82392cc; Ubuntu 18.04, Kernel Linux 4.15.0-1025-aws, Ergebnis 3626.11 TPS, gemessen von Intel am 16.11.18.
AWS M5a.24xlarge (AMD) Instanz, oss-performance/wordpress Version 4.2.0; Version 10.2.19-MariaDB-1:10.2.19+maria~bionic; Workload Version': U'4.2.0; Client-Threads: 200; PHP 7.2.12-1; perfkitbenchmarker_version="v1.12.0-944-g82392cc; Ubuntu 18.04, Kernel Linux 4.15.0-1025-aws, Ergebnis 1838.48 TPS, gemessen von von Intel am 16.11.18.
Ausführlichere Informationen finden Sie unter www.intel.de/benchmarks.

4

AWS M5.4xlarge (Intel) Instanz, McCalpin Stream (OMP-Version), (Quelle: https://www.cs.virginia.edu/stream/FTP/Code/stream.c); Intel ICC 18.0.3 20180410 mit AVX512, -qopt-zmm-usage=high, -DSTREAM_ARRAY_SIZE=134217728 -DNTIMES=100 -DOFFSET=0 –qopenmp, -qoptstreaming-stores always -o $OUT stream.c, Red Hat* Enterprise Linux 7.5, Kernel 3.10.0-862.el7.x86_64, OMP_NUM_THREADS: 8, KMP_AFFINITY: proclist=[0-7:1], granularity=thread, explizit, Score 81216.7 MB/s, gemessen von Intel am 6.12.2018.
AWS M5a.4xlarge (AMD) Instanz, McCalpin Stream (OMP-Version), (Quelle: https://www.cs.virginia.edu/stream/FTP/Code/stream.c); Intel ICC 18.0.3 20180410 mit AVX2, -DSTREAM_ARRAY_SIZE=134217728, -DNTIMES=100 -DOFFSET=0 -qopenmp -qopt-streaming-stores always -o $OUT stream.c, Red Hat* Enterprise Linux 7.5, Kernel 3.10.0-862.el7.x86_64, OMP_NUM_THREADS: 8, KMP_AFFINITY : proclist=[0-7:1], granularity=thread, explizit, Score 32154.4 MB/s, gemessen von Intel am 6.12.2018.
Haftungsausschluss von OpenFOAM: Dieses Angebot stammt nicht von OpenCFD Limited, Hersteller und Distributor der OpenFOAM-Software über www.openfoam.com und Besitzer der Marken OpenFOAM* und OpenCFD*.
AWS-Preise ab 12. Januar 2019, Standardpreis für Reserved Instance für 1 Jahr (https://aws.amazon.com/ec2/pricing/reserved-instances/pricing/) Preise für On-Demand-Nutzung von Linux/Unix pro Stunde (https://aws.amazon.com/ec2/pricing/on-demand/).

5

Bis zu 30-fache Verbesserung des Inferenzdurchsatzes auf Intel® Xeon® Platinum Prozessor 9282 mit Intel® Deep Learning Boost (Intel® DL Boost): Getestet von Intel am 26.02.2019. Plattform: Zweiprozessorsystem „Dragon Rock“ mit Intel® Xeon® Platinum Prozessor 9282 (56 Kerne pro Prozessor), HT aktiviert, Turbo aktiviert, insgesamt 768 GB Arbeitsspeicher (24 Steckplätze, je 32 GB, 2933 MHz), BIOS: SE5C620.86B.0D.01.0241.112020180249, Centos* 7 Kernel 3.10.0-957.5.1.el7.x86_64, Deep Learning Framework: Intel® Optimierungen für Caffe*, Version: https://github.com/intel/caffe d554cbf1, ICC 2019.2.187, MKL-DNN-Version: v0.17 (Commit-Hash: 830a10059a018cd2634d94195140cf2d8790a75a), Modell https://github.com/intel/caffe/blob/master/models/intel_optimized_models/int8/resnet50_int8_full_conv.prototxt, BS = 64, keine Datenebene – synthetische Daten: 3x224x224, 56 Instanzen / Zweiprozessorsystem, Datentyp: INT8; Vergleich mit Test durch Intel am 11. Juli 2017: Zweiprozessorsystem mit Intel® Xeon® Platinum Prozessor 8180 (2,50 GHz, 28 Kerne), HT deaktiviert, Turbo deaktiviert, Scaling-Governor festgelegt auf „Performance“ über intel_pstate-Treiber, 384 GB DDR4-2666-ECC-RAM. CentOS Linux* Release 7.3.1611 (Core), Linux*-Kernel 3.10.0-514.10.2.el7.x86_64. SSD: Intel® Rechenzentrums-SSD der S3700-Serie (800 GB, 2,5-Zoll-SATA mit 6 Gbit/s, 25-nm-Technik, MLC). Leistung gemessen mit: Umgebungsvariablen: KMP_AFFINITY='granularity=fine, compact‘, OMP_NUM_THREADS=56, CPU-Frequenz festgelegt mit cpupower frequency-set -d 2.5G -u 3.8G –g performance. Caffe: (http://github.com/intel/caffe/), Revision f96b759f71b2281835f690af267158b82b150b5c. Inferenz gemessen mit Befehl „caffe time --forward_only“, Training gemessen mit Befehl „caffe time“. Für „ConvNet“-Topologien wurde ein synthetisches Dataset verwendet. Für andere Topologien wurden Daten im lokalen Datenspeicher gespeichert und vor dem Training im Systemspeicher zwischengespeichert. Topologie-Spezifikation aus https://github.com/intel/caffe/tree/master/models/intel_optimized_models(ResNet-50). Intel® C++ Compiler, Version 17.0.2 20170213, Intel® Math Kernel Library (Intel® MKL) Small Libraries, Version 2018.0.20170425. Caffe ausgeführt mit „numactl -l“.