Amazon® M6i-Instances mit skalierbaren Intel® Xeon® Prozessoren der 3. Generation lieferten bis zu 1,75-mal die Wide & Deep Recommender-Leistung.

Wide and Deep Empfehlungen:

  • Verarbeiten Sie bis zu 1,75-mal so viele Bilder pro Sekunde auf m6i.24xlarge-Instanzen mit 96 vCPUs und skalierbaren Intel Xeon Prozessoren der 3. Generation.

  • Verarbeiten Sie bis zu 1,35-mal so viele Bilder pro Sekunde auf m6i.16xlarge-Instanzen mit 64 vCPUs und skalierbaren Intel Xeon Prozessoren der 3. Generation.

  • Verarbeiten Sie bis zu 1,67-mal so viele Bilder pro Sekunde auf m6i.4xlarge-Instanzen mit 16 vCPUs und skalierbaren Intel Xeon Prozessoren der 3. Generation.

author-image

Von

Über verschiedene Instanzgrößen hinweg führten M6i-Instanzen mehr Inferenzoperationen pro Sekunde durch als M6a-Instanzen mit AMD EPYC-Prozessoren der 3. Generation

Wenn Sie eine E-Commerce-Website betreiben, könnten Sie daran interessiert sein, den Umsatz mit einem Deep-Learning-Workload wie einer Wide & Deep-Empfehlungsmaschine zu verbessern. Diese Anwendungen analysieren die gesammelten Daten, wenn Besucher auf Ihrer Website einkaufen, und generieren Empfehlungen für zusätzliche Produkte, die Ihre Kunden interessieren könnten. Indem Sie Deep-Learning-Anwendungen auf Cloud-Instanzen mit leistungsstarker zugrunde liegender Hardware ausführen, können Sie diese Empfehlungen schneller bereitstellen.

Beim Testen wurde die Wide & Deep-Inferenzleistung von zwei EC2-Cloud-Instanz-Typen von Amazon Web Services (AWS) mit unterschiedlichen Prozessorkonfigurationen verglichen: M6i-Instanzen mit skalierbaren Intel® Xeon® Prozessoren der 3. Generation und M6a-Instanzen mit AMD EPYC-Prozessoren der 3. Generation. Kleine, mittelgroße und große M6i-Instanzen lieferten eine bessere Leistung – gemessen in Bilder pro Sekunde (FPS) – als ihre M6a-Pendants. Durch die Auswahl dieser leistungsstärkeren M6i-Instanz für Ihre Wide- und Deep-Inferenz-Workloads könnte Ihre Website schnellere Empfehlungen liefern.

Große 96-vCPU-Instanzen

Beim Testen wurde das TensorFlow-Framework verwendet, um die Leistung der Wide & Deep-Empfehlungs-Engine der beiden AWS-Instanz-Reihen zu bewerten. Wie Abbildung 1 zeigt, verarbeiteten die m6i.24xlarge-Instanzen mit 96 vCPUs, die von skalierbaren Intel Xeon Prozessoren der 3. Generation aktiviert wurden, 1,75-mal so viele FPS im Wide & Deep-Benchmark wie die m6a.24xlarge-Instanzen mit AMD EPYC-Prozessoren der 3. Generation.

Abbildung 1: Anzahl der Bilder pro Sekunde, die von einem m6i.24xlarge-Instanz-Cluster mit skalierbaren Intel Xeon Prozessoren der 3. Generation und von einem m6a.24xlarge-Cluster mit AMD EPYC-Prozessoren der 3. Generation erreicht werden. Testen verwendeter fp32-Präzision und 512-Stapelgröße. Höher ist besser.

Mittelgroße 64-vCPU-Instanzen

Wie Abbildung 2 zeigt, verarbeiteten die m6i.16xlarge-Instanzen mit 64 vCPUs, die von skalierbaren Intel® Xeon® Prozessoren der 3. Generation aktiviert wurden, 1,35-mal so viele FPS wie die m6a.16xlarge-Instanzen mit AMD EPYC-Prozessoren der 3. Generation.

Abbildung 2: Anzahl der Bilder pro Sekunde, die von einem m6i.16xlarge-Instanz-Cluster mit skalierbaren Intel Xeon Prozessoren der 3. Generation und von einem m6a.16xlarge-Cluster mit AMD EPYC-Prozessoren der 3. Generation erreicht werden. Testen verwendeter fp32-Präzision und 512-Stapelgröße. Höher ist besser.

Kleine 16 vCPU-Instanzen

Wie Abbildung 3 zeigt, verarbeiteten die m6i.4xlarge-Instanzen mit 16 vCPUs, die von skalierbaren Intel Xeon Prozessoren der 3. Generation aktiviert wurden, 1,67-mal so viele FPS wie die m6a.4xlarge-Instanzen mit AMD EPYC-Prozessoren der 3. Generation.

Abbildung 3: Anzahl der Bilder pro Sekunde, die von einem m6i.4xlarge-Instanz-Cluster mit skalierbaren Intel Xeon Prozessoren und von einem m6a.4xlarge-Cluster mit AMD EPYC-Prozessoren der 3. Generation erreicht werden. Testen verwendeter fp32-Präzision und 512-Stapelgröße. Höher ist besser.

Fazit

Das Testen der Leistung der Wide & Deep-Empfehlungs-Engine auf zwei AWS-Instanz-Reihen ergab, dass M6i-Instanzen mit skalierbaren Intel Xeon Prozessoren der 3. Generation M6a-Instanzen mit AMD EPYC-Prozessoren der 3. Generation übertrafen. Die M6i-Instanzen verarbeiteten bis zu 1,75-mal so viele Bilder pro Sekunde, wodurch die Anwendung Kundenempfehlungen schneller generieren und Ihren Umsatz effektiver steigern könnte.

Weitere Informationen

Besuchen Sie https://aws.amazon.com/ec2/instance-types/m6i/, um mit der Ausführung Ihrer Wide & Deep-Empfehlungs-Workloads auf Amazon M6i-Instances mit skalierbaren Intel Xeon Prozessoren der 3. Generation zu beginnen.

Für vollständige Testdetails und Ergebnisse, die zeigen, wie sich diese skalierbaren Intel Xeon Prozessoren der 3. Generation im Vergleich zu Instanzen mit AMD EPYC-Prozessoren der 3. Generation geschlagen haben, lesen Sie den Bericht unter https://facts.pt/ZlqeNXb.