Wählen Sie Amazon EC2 m6i-Instanzen mit skalierbaren Intel® Xeon® Prozessoren der 3. Generation, um die HPC-Leistung zu steigern

STREAMEN

  • Erleben Sie bis zu 79 % höheren STREAM-Triade-Durchsatz mit 8-vCPU m6i-Instanzen im Vergleich zu m6a-Instanzen.

  • Erleben Sie einen bis zu 2,75-fachen STREAM-Triade-Durchsatz mit 16-vCPU m6i-Instanzen im Vergleich zu m6a-Instanzen.

author-image

Von

Erhalten Sie eine bis zu 2,75-fache die STREAM-Triade-Leistung mit Amazon EC2 m6i-Instanzen im Vergleich zu m6a-Instanzen mit AMD EPYC-Prozessoren

Da der globale Markt immer komplexer wird, sammeln und analysieren immer mehr Organisationen Daten, um ihre Geschäftsentscheidungen zu unterstützen. Die richtigen Daten, die korrekt analysiert werden, können Unternehmen dabei helfen, Probleme zu finden und zu beheben, für die Zukunft zu planen und ihre Kundenbasis zu erweitern. Die Analyse großer Datensätze erfordert jedoch eine Menge Rechenleistung, und insbesondere für das High-Performance Computing (HPC) ist es wichtig, die richtigen Cloud-Instanzen zu wählen. Der Arbeitsspeicher stellt ein besonderes Problem dar, da hohe Geschwindigkeit und Durchsatz für Anwendungen von entscheidender Bedeutung sind, die Daten im Arbeitsspeicher zwischenspeichern.

Um Unternehmen zu helfen, Instanzen mit dem Arbeitsspeicher-Durchsatz zu finden, den sie benötigen, hat Intel den anhaltenden Speicherdurchsatz von zwei Sätzen von Amazon Web Services (AWS) Elastic Compute Cloud (EC2) Instanzen getestet:

  • m6i-Instanzen mit skalierbaren Intel® Xeon® Prozessoren der 3. Generation
  • m6a Instanzen mit AMD EPYC Prozessoren.

Mithilfe der STREAM-Triade-Benchmark, die Arbeitsspeicher jeder Instanz in MB/s aufzeichnet, testete Intel beide Instanzgruppen mit 8 vCPUs und 16 vCPUs. Mit dem bis zu 2,75-fachen Speicherdurchsatz boten die m6i-Instanzen deutlich mehr Leistung als die m6a-Optionen und beantworten so die Frage, was für speicherintensive HPC-Workloads besser wäre.

Erhöhter STREAM-Triade-Durchsatz für kleinere Instanzen

Wie Abbildung 1 zeigt, hat die 8-vCPU m6i-Instanz mit skalierbaren Intel® Xeon® Prozessoren der 3. Generation ihre Gegenstück mit AMD-Prozessor um 79 % übertroffen. Wenn Ihre Workloads nicht zu groß sind, sind diese 8-vCPU m6i-Instanzen eine großartige Option, um die Leistung zu maximieren.

Abbildung 1: Relative STREAM-Triade-Leistung der 8-vCPU-m6i-Instanz im Vergleich zur 8-vCPU-m6a-Instanz. Höhere Zahlen sind besser.

Erhöhter SREAM-Triade-Durchsatz für Instanzen mittlerer Größe

Für größere Workloads hat Intel die gleichen Instanztypen in der 16-vCPU-Größe getestet. Wieder sehen wir, dass die m6i-Instanz mit skalierbaren Intel® Xeon® Prozessoren der 3. Generation wesentlich bessere Leistung bot als die m6a-Instanz mit AMD-Prozessoren. Diesmal war der Speicherdurchsatz der m6i-Instanz jedoch 2,75-mal so groß wie bei der m6a-Instanz (siehe Abbildung 2).

Abbildung 2: Relative STREAM-Triade-Leistung der 16-vCPU-m6i-Instanz im Vergleich zur 16-vCPU-m6a-Instanz. Höhere Zahlen sind besser.

Fazit

Für Workloads, die von einem hohen Niveau an anhaltendem Speicherdurchsatz profitieren Leistung wie HPC-Workloads profitieren können, müssen Unternehmen in Cloud-Instanzen investieren, die diese Aufgabe erfüllen können. Diese Tests machen deutlich, dass die m6i-Instanzen mit skalierbaren Intel® Xeon® Prozessoren der 3. Generation von AWS eine überlegene Speicherbandbreite im Vergleich zu m6a-Instanzen mit AMD-Prozessoren bieten. Vor allem, wenn Ihr Unternehmen mit einem kontinuierlichen Wachstum bei Workload-Größen konfrontiert ist, sollten Sie die AWS EC2 m6i-Instanzen in Betracht ziehen, wenn Sie eine Cloud-Lösung für Ihre HPC-Workloads suchen.

Weitere Informationen

Um mit der Ausführung Ihrer HPC-Workloads auf Amazon EC2 m6i-Instances mit skalierbaren Intel® Xeon® Prozessoren der 3. Generation zu beginnen, gehen Sie zu https://aws.amazon.com/ec2/instance-types/m6i/.

Tests wurde von Intel im Januar 2022 durchgeführt. Alle Konfigurationen verwendeten Ubuntu 20.04.3 LTS-Kernel 5.11.0-1022-aws auf AWS us-west=2 mit STREAM v5.10, ICC 2021.2-Compiler und setzten OMP_NUM_THREADS gleich # of vCPUs. Von AMD-Konfiguration verwendete Compiler-Flags: -mcmodel medium -shared-intel -O3 -march=core-avx2 -DSTREAM_ARRAY_SIZE=268435456 -DNTIMES=100 -DOFFSET=0 -qopenmp -qopt-streaming-stores always -qopt-zmm-usage=high. Von Intel-Konfiguration verwendete Compiler-Flags: -O3 -qopt-streaming-stores=always -qopt-zmm-usage=high -xCORE-AVX512 -qopenmp -mcmodel=large -DSTREAM_ARRAY_SIZE=268435456. m6a.2xlarge: AMD EPYC 7R13, 8 Kerne, 32 GB RAM, bis zu 12,5 Gbit/S Netzwerkbandbreite, bis zu 6,6 Gbit/s Datenspeicherbandbreite; m6i.2xlarge: Intel Xeon Platinum 8375C, 8 Kerne, 32 GB RAM, bis zu 10 Gbit/s Netzwerkbandbreite, bis zu 12,5 Gbit/s Datenspeicherbandbreite; m6a.4xlarge: AMD EPYC 7R13, 16 Kerne, 64 GB RAM, bis zu 12,5 Gbit/s Netzwerkbandbreite, bis zu 6,6 Gbit/s Datenspeicherbandbreite; m6i.4xlarge: Intel Xeon Platinum 8375C, 16 Kerne, 64 GB RAM bis zu 10 Gbit(s netzwerkbandbreite, bis zu 12,5 Gbit/s Datenspeicherbandbreite.