Erhalten Sie höhere Leistung für Ihre Investitionen in AWS* – mit Ihren Daten auf Intel

Entdecken Sie die Vorteile von Instanzen auf Basis der skalierbaren Intel® Xeon® Prozessoren.

Auf einen Blick

  • AWS-Instanzen auf Basis der Intel® Prozessoren bieten ein besseren Preis-Leistungs-Verhältnis für wichtige Workloads

  • So bieten beispielsweise Instanzen auf Basis der skalierbaren Intel® Xeon® Prozessoren ein 4,15-mal besseres Preis-Leistungs-Verhältnis für HPC-Workloads (High-Performance-Computing) als Instanzen auf Basis von AMD EPYC*1

  • Auch Datenbanken, speicherintensive Workloads und Web-basierte Workloads bieten in Verbindung mit Intel Technik einen höheren Wert

BUILT IN - ARTICLE INTRO SECOND COMPONENT

Nutzen Sie Ihre AWS*-Investitionen optimal?

Die Cloud bietet Ihnen die Skalierbarkeit, Zuverlässigkeit und Flexibilität, die Sie benötigen – aber: Cloud ist nicht gleich Cloud. Einige Instanzen bieten einen sehr viel höheren Wert als andere. Um die optimale Wahl für Ihre Workloads treffen zu können, müssen Sie sich über die Leistungseigenschaften dieser speziellen Workloads informieren. Eine allgemeine Leistungsstatistik liefert Ihnen möglicherweise nicht viele Informationen über die Ergebnisse, die Sie letztendlich tatsächlich erhalten. Dies gilt insbesondere dann, wenn Sie rechen- oder datenintensive Workloads ausführen. Ganz ähnlich liefert Ihnen der Preis pro Instanz nur wenig Erkenntnisse über den Preis pro Transaktion oder jegliche anderen tatsächlichen Geschäfts- oder Leistungsmetriken. Dafür müssen Sie tiefer graben.

Haben Sie zum Beispiel gewusst, dass nach Angaben der Benchmark High Performance Linpack* AWS*-Instanzen auf Basis der skalierbaren Intel® Xeon® Prozessoren Ihnen ein bis zu 4,15-mal höheres Preis-Leistungs-Verhältnis für HPC-Workloads (High-Performance-Computing)1 im Vergleich zu Instanzen auf Basis von AMB EPYC*-Prozessoren? Laut LAMMPS*-Benchmark bieten sie ein bis zu 2,19-mal besseres Preis-Leistungs-Verhältnis.1 Die skalierbaren Intel® Xeon® Prozessoren bieten für Datenbank-Workloads auf AWS ein bis zu 2,84-mal besseres Preis-Leistungs-Verhältnis2 und für Workloads mit hohen Anforderungen an die Speicherbandbreite ein bis zu 2,25-mal besseres Preis-Leistungs-Verhältnis.3 Bei der Ausführung Web-basierter Workloads wie serverseitigem Java* oder Wordpress PHP/HHVM* erzielen Sie mit Intel Technik möglicherweise ein bis zu 1,74-mal besseres Preis-Leistungs-Verhältnis.4

Auch wenn Sie bereits Intel® Prozessoren verwenden, könnten Sie durch den Wechsel auf eine moderne Instanz auf Basis der skalierbaren Intel® Xeon® Prozessoren Einsparungen erzielen. TSO Logic gibt datengestützte Empfehlungen für die richtige Anpassung von Größe und Kosten für Public und Private Clouds aus. Dafür wurden Millionen Datenpunkte über das Repository mit 100.000 Instanzen mit anonymisierten AWS-Kundendaten ausgewertet. Das Ergebnis? Bei 19 Prozent der aktuellen Instanzen könnten durch den Wechsel auf neuere, kleinere Amazon EC2*-Instanztypen, die ähnliche Leistung zu einem kleineren Preis bieten, Einsparungen erzielt werden. Beispielsweise könnten Sie durch die Migration von älteren C4.8XLarge- zu neueren C5.4XLager-Instanzen Ihre Cloud-Kosten um bis zu 50 % reduzieren – etwa 3.000 US-Dollar pro Instanz.5 Darüber hinaus können sich diese Einsparungen schnell summieren, wenn Sie Software pro Kern lizenzieren. TSO Logic fand heraus, dass für die Lieferung eines Workloads auf neueren Instanzen auf Basis der skalierbaren Intel® Xeon® Prozessoren der 2. Generation 40 weniger Kerne genutzt werden müssen.5 Bei der Ausführung kommerzieller Datenbanken, deren Lizenz pro Kern 1.800 US-Dollar pro Kern beträgt, könnten Sie durch diese Reduzierung um 40 Kerne jedes Jahr 72.000 US-Dollar einsparen.5

Der skalierbaren Intel® Xeon® Prozessoren und die skalierbaren Intel® Xeon® Prozessoren der 2. Generation verfügen über eine Reihe von integrierten Optimierungen, um Ihre Workloads zu beschleunigen. Durch das INT8-Zahlenformat können unnötige Details verworfen werden, um das maschinelle Lernen zu beschleunigen – dazu bietet Intel® Deep Learning Boost (Intel® DL Boost) eine neue Prozessoranweisung, um die Inferenz in Anwendungen wie Bildklassifizierung, Spracherkennung, Übersetzung und Objekterkennung zu beschleunigen. Intel® Advanced Vector Extension 512 (Intel® AVX-512) bietet 512-Bit-Vektoranweisungen, mit denen sich Fließkomma-Operationen (einschließlich wissenschaftlicher Simulationen) beschleunigen lassen. Mit der Intel® Turbo-Boost-Technik können Sie Kerne mit einer höheren Frequenz als der Grundtaktfrequenz betreiben, damit Sie bei Bedarf zusätzliche Leistungsreserven freischalten können. Um Ihre Daten zu schützen, bietet die Funktion Intel® Advanced Encryption Standard New Instructions (Intel® AES-NI) Prozessoranweisungen zur Beschleunigung von Ver- und Entschlüsselung.

Hinweise und Haftungsausschlüsse

In Leistungstests verwendete Software und Workloads können speziell für die Leistungseigenschaften von Intel® Mikroprozessoren optimiert worden sein. Leistungstests wie SYSmark* und MobileMark* werden mit spezifischen Computersystemen, Komponenten, Softwareprogrammen, Operationen und Funktionen durchgeführt. Jede Veränderung bei einem dieser Faktoren kann abweichende Ergebnisse zur Folge haben. Als Unterstützung für eine umfassende Bewertung Ihrer vorgesehenen Anschaffung, auch im Hinblick auf die Leistung des betreffenden Produkts in Verbindung mit anderen Produkten, sollten Sie noch andere Informationen und Leistungstests heranziehen. Ausführlichere Informationen finden Sie unter www.intel.com/benchmarks.

Die Leistungsergebnisse basieren auf Tests, die zu dem in den Konfigurationen angegebenen Datum durchgeführt wurden, und spiegeln möglicherweise nicht alle öffentlich erhältlichen Sicherheitsupdates wider. Weitere Einzelheiten finden Sie in den veröffentlichten Konfigurationsdaten. Kein Produkt und keine Komponente bieten absolute Sicherheit.
Intel hat keinen Einfluss auf und keine Aufsicht über die Daten Dritter. Sie sollten diese Inhalte prüfen, andere Quellen heranziehen und sich davon überzeugen, dass die angeführten Daten zutreffen.

Die beschriebenen Kostensenkungsszenarien sind als Beispiele dafür gedacht, wie ein bestimmtes Produkt mit Intel® Technik unter den genannten Umständen und in der angegebenen Konfiguration zukünftige Kosten beeinflussen und Einsparungen ermöglichen kann. Die Umstände unterscheiden sich von Fall zu Fall. Intel übernimmt keine Gewähr für Kosten oder Kostensenkungen.

Die Funktionsmerkmale und Vorteile von Intel® Techniken hängen von der Systemkonfiguration ab und können geeignete Hardware, Software oder die Aktivierung von Diensten erfordern. Die Leistungsmerkmale variieren je nach Systemkonfiguration. Informieren Sie sich beim Systemhersteller oder Einzelhändler oder auf intel.de.

Intel, das Intel-Logo und Xeon sind Marken der Intel Corporation oder ihrer Tochtergesellschaften in den USA und/oder anderen Ländern.

*Andere Marken oder Produktnamen sind Eigentum der jeweiligen Inhaber. 
© Intel Corporation

Produkt- und Leistungsinformationen

1

Die von Intel berechneten Ergebnisse basieren auf AWS-Preisen (USD/Stunde, Standardlaufzeit 1 Jahr, keine Vorlaufzeit) vom 12. Januar 2019.
Tests auf Leistung-pro-Dollar-Basis wurden auf AWS* EC2 M5- und M5a-Instanzen durchgeführt, (https://aws.amazon.com/ec2/instance-types/), wobei die Leistung pro Dollar eines 96 vCPU skalierbaren Intel® Xeon® Prozessors mit der Leistung pro Dollar eines AMD EPYC* Prozessors verglichen wurde.

Workload: LAMMPS*
Ergebnisse: Leistung pro Dollar von AMD EPYC = Ausgangswert von 1; Leistung pro Dollar des skalierbaren Intel® Xeon® Prozessors = 2,19-fache Leistung (höher ist besser)
HPC Materials Science – LAMMPS (höher ist besser):
AWS M5.24xlarge (Intel) Instanz, LAMMPS-Version: 22.08.2018 (Code: https://lammps.sandia.gov/download.html), Workload: Wasser – 512K Partikel, Intel ICC 18.0.3.20180410, Intel® MPI Library für Linux* OS, Version 2018 Update 3 Build 20180411, 48 MPI Ranks, Red Hat* Enterprise Linux 7.5, Kernel 3.10.0-862.el7.x86_64, OMP_NUM_THREADS=2, Score 137,5 Schritte/Sek, gemessen von Intel am 31.10.18.
AWS M5a.24xlarge (AMD) Instanz, LAMMPS-Version: 22.08.2018 (Code: https://lammps.sandia.gov/download.html), Workload: Wasser – 512K Partikel, Intel ICC 18.0.3.20180410, Intel® MPI Library für Linux* OS, Version 2018 Update 3 Build 20180411, 48 MPI Ranks, Red Hat* Enterprise Linux 7.5, Kernel 3.10.0-862.el7.x86_64, OMP_NUM_THREADS=2, Score 55,8 Schritte/Sek, gemessen von Intel am 07.11.2018.
Änderungen für AMD zur Unterstützung von AVX2 (AMD unterstützt nur AVX2, daher waren diese Änderungen erforderlich):
sed -i 's/-xHost/-xCORE-AVX2/g' Makefile.intel_cpu_intelmpi
sed -i 's/-qopt-zmm-usage=high/-xCORE-AVX2/g' Makefile.intel_cpu_intelmpi

Workload: Hochleistungs-Linpack*
Ergebnisse: Leistung pro Dollar von AMD EPYC = Ausgangswert von 1; Leistung pro Dollar des skalierbaren Intel® Xeon® Prozessors = 4,15-fache Leistung (höher ist besser)
HPC-Linpack (höher ist besser):
AWS M5.24xlarge (Intel) Instanz, HP Linpack Version 2.2 (https://software.intel.com/en-us/articles/intel-mkl-benchmarks-suite Directory: benchmarks_2018.3.222/linux/mkl/benchmarks/mp_linpack/bin_intel/intel64), Intel ICC 18.0.3.20180410 mit AVX512, Intel® MPI Library für Linux* OS, Version 2018 Update 3 Build 20180411, Red Hat* Enterprise Linux 7.5, Kernel 3.10.0-862.el7.x86_64, OMP_NUM_THREADS=24, 2 MPI-Prozesse, Ergebnis 3152 GB/s, gemessen von Intel am 31.10.18.
AWS M5a.24xlarge (AMD) Instanz, HP Linpack Version 2.2, (HPL-Quelle: http://www.netlib.org/benchmark/hpl/hpl-2.2.tar.gz; Version 2.2; icc (ICC) 18.0.2 20180210 kompiliert und Link zur BLIS Library-Version 0.4.0; https://github.com/flame/blis; Addt’l Compiler flags: -O3 -funroll-loops -W -Wall –qopenmp; make arch=zen OMP_NUM_THREADS=8; 6 MPI Prozesse.), Intel ICC 18.0.3.20180410 mit AVX2, Intel® MPI Library für Linux* OS, Version 2018 Update 3 Build 20180411, Red Hat* Enterprise Linux 7.5, Kernel 3.10.0-862.el7.x86_64, OMP_NUM_THREADS=8, 6 MPI-Prozesse, Ergebnis 677,7 GB/s, gemessen von Intel am 07.11.18.

2

Die von Intel berechneten Ergebnisse basieren auf AWS-Preisen (USD/Stunde, Standardlaufzeit 1 Jahr, keine Vorlaufzeit) vom 12. Januar 2019.
Tests auf Leistung-pro-Dollar-Basis wurden auf AWS* EC2 R5- und R5a-Instanzen durchgeführt, (https://aws.amazon.com/ec2/instance-types/), wobei die Leistung pro Dollar eines 96 vCPU skalierbaren Intel® Xeon® Prozessors mit der Leistung pro Dollar eines AMD EPYC* Prozessors verglichen wurde.

Workload: HammerDB* PostgreSQL*
Ergebnisse: Leistung pro Dollar von AMD EPYC = Ausgangswert von 1; Leistung pro Dollar des skalierbaren Intel® Xeon® Prozessors = 1,85-fache Leistung (höher ist besser)
Datenbank: HammerDB – PostgreSQL (höher ist besser):
AWS R5.24xlarge (Intel) Instanz, HammerDB 3.0 PostgreSQL 10.2, Arbeitsspeicher: 768 GB, Hypervisor: KVM; Speichertyp: EBS io1, Festplattenvolumen 200 GB, Gesamtspeicher 200 GB, Docker-Version: 18.06.1-ce, Red Hat* 7.6 Enterprise Linux 7.6, 3.10.0-957.el7.x86_64, 6400 MB shared_buffer, 256 Lager, 96 Benutzer. Ergebnis „NOPM“ 439931, gemessen von Intel am 11.12.18.–14.12.18.
AWS R5a.24xlarge (AMD) Instanz, HammerDB 3.0 PostgreSQL 10.2, Arbeitsspeicher: 768 GB, Hypervisor: KVM; Speichertyp: EBS io1, Festplattenvolumen 200 GB, Gesamtspeicher 200 GB, Docker-Version: 18.06.1-ce, Red Hat* Enterprise Linux 7.6, 3.10.0-957.el7.x86_64, 6400 MB shared_buffer, 256 Lager, 96 Benutzer. Ergebnis „NOPM“ 212903, gemessen von Intel am 20.12.18.

Workload: MongoDB*
Ergebnisse: Leistung pro Dollar von AMD EPYC = Ausgangswert von 1; Leistung pro Dollar des skalierbaren Intel® Xeon® Prozessors = 2,84-fache Leistung (höher ist besser).
Datenbank: MongoDB (höher ist besser):
AWS R5.24xlarge (Intel) Instanz, MongoDB v4.0, Journal deaktiviert, Synchronisierung mit Dateisystem deaktiviert, wiredTigeCache=27 GB, maxPoolSize = 256; 7 MongoDB-Instanzen, 14 Client-VMs, 1 YCSB-Client pro VM, 96 Threads pro YCSB-Client, Red Hat* Enterprise Linux 7.5, Kernel 3.10.0-862.el7.x86_64, Ergebnis 1229288 ops/Sek, gemessen von Intel am 10.12.2018.
AWS R5a.24xlarge (AMD) Instanz, MongoDB v4.0, Journal deaktiviert, Synchronisierung mit Dateisystem deaktiviert, wiredTigeCache=27 GB, maxPoolSize = 256; 7 MongoDB-Instanzen, 14 Client-VMs, 1 YCSB-Client pro VM, 96 Threads pro YCSB-Client, Red Hat* Enterprise Linux 7.5, Kernel 3.10.0-862.el7.x86_64, Ergebnis 388596 ops/Sek, gemessen von Intel am 10.12.2018.
Ausführlichere Informationen finden Sie unter www.intel.de/benchmarks.

3

AWS M5.4xlarge (Intel) Instanz, McCalpin Stream (OMP-Version), (Quelle: https://www.cs.virginia.edu/stream/FTP/Code/stream.c); Intel ICC 18.0.3 20180410 mit AVX512, -qopt-zmm-usage=high, -DSTREAM_ARRAY_SIZE=134217728 -DNTIMES=100 -DOFFSET=0 –qopenmp, -qopt-streaming-stores always -o $OUT stream.c, Red Hat* Enterprise Linux 7.5, Kernel 3.10.0-862.el7.x86_64, OMP_NUM_THREADS: 8, KMP_AFFINITY: proclist=[0-7:1], granularity=thread, explizit, Score 81216.7 MB/s, gemessen von Intel am 6.12.2018.
AWS M5a.4xlarge (AMD) Instanz, McCalpin Stream (OMP-Version), (Quelle: https://www.cs.virginia.edu/stream/FTP/Code/stream.c); Intel ICC 18.0.3 20180410 mit AVX2, -DSTREAM_ARRAY_SIZE=134217728, -DNTIMES=100 -DOFFSET=0 -qopenmp -qopt-streaming-stores always -o $OUT stream.c, Red Hat* Enterprise Linux 7.5, Kernel 3.10.0-862.el7.x86_64, OMP_NUM_THREADS: 8, KMP_AFFINITY: proclist=[0-7:1], granularity=thread, explizit, Score 32154.4 MB/s, gemessen von Intel am 6.12.2018.
Haftungsausschluss von OpenFOAM: Dieses Angebot stammt nicht von OpenCFD Limited, Hersteller und Distributor der OpenFOAM-Software über www.openfoam.com und Besitzer der Marken OPENFOAM® und OpenCFD®, genehmigt oder empfohlen.

4

Die von Intel berechneten Ergebnisse basieren auf AWS-Preisen (USD/Stunde, Standardlaufzeit 1 Jahr, keine Vorlaufzeit) vom 12. Januar 2019.
Tests auf Leistung-pro-Dollar-Basis wurden auf AWS* EC2 M5- und M5a-Instanzen durchgeführt, (https://aws.amazon.com/ec2/instance-types/), wobei die Leistung pro Dollar eines 96 vCPU skalierbaren Intel® Xeon® Prozessors mit der Leistung pro Dollar eines AMD EPYC* Prozessors verglichen wurde.

Workload: Serverseitiges Java* 1 JVM
Ergebnisse: Leistung pro Dollar von AMD EPYC = Ausgangswert von 1; Leistung pro Dollar des skalierbaren Intel® Xeon® Prozessors = 1,74-fache Leistung (höher ist besser)
Serverseitiges Java (höher ist besser):
AWS M5.24xlarge (Intel) Instanz, Java Server Benchmark, nicht NUMA-gebunden, 2JVM, OpenJDK 10.0.1, Red Hat* Enterprise Linux 7.5, Kernel 3.10.0-862.el7.x86_64, Ergebnis 101767 Transaktionen/Sek, gemessen von Intel am 16.11.18.
AWS M5a.24xlarge (AMD) Instanz, Java Server Benchmark, nicht NUMA-gebunden, 2JVM, OpenJDK 10.0.1, Red Hat* Enterprise Linux 7.5, Kernel 3.10.0-862.el7.x86_64, Ergebnis 52068 Transaktionen/Sek, gemessen von Intel am 16.11.18.

Workload: WordPress* PHP/HHVM*
Ergebnisse: Leistung pro Dollar von AMD EPYC = Ausgangswert von 1; Leistung pro Dollar des skalierbaren Intel® Xeon® Prozessors = 1,75-fache Leistung (höher ist besser)
Web Front-End-WordPress (höher ist besser):
AWS M5.24xlarge (Intel) Instanz, oss-performance/wordpress Version 4.2.0; Version 10.2.19-MariaDB-1:10.2.19+maria~bionic; Workload Version': U'4.2.0; Client-Threads: 200; PHP 7.2.12-1; perfkitbenchmarker_version="v1.12.0-944-g82392cc; Ubuntu 18.04, Kernel Linux 4.15.0-1025-aws, Ergebnis 3626.11 TPS, gemessen von Intel am 16.11.18.
AWS M5a.24xlarge (AMD) Instanz, oss-performance/wordpress Version 4.2.0; Version 10.2.19-MariaDB-1:10.2.19+maria~bionic; Workload Version': U'4.2.0; Client-Threads: 200; PHP 7.2.12-1; perfkitbenchmarker_version="v1.12.0-944-g82392cc; Ubuntu 18.04, Kernel Linux 4.15.0-1025-aws, Ergebnis 1838.48 TPS, gemessen von von Intel am 16.11.18.
Ausführlichere Informationen finden Sie unter www.intel.de/benchmarks.

5

Quelle: Bericht von TSO Logic und Intel: „New Advances by Intel, Amazon Web Services, Drive Major Cloud Savings“ (Fortschritte bei Intel und Amazon Web Services senken Kosten für die Cloud).