Erzielen Sie die bis zu 1,33-fache Wide- und Deep-Recommender-Leistung, indem Sie Amazon® M6i-Instances mit skalierbaren Intel® Xeon®-Prozessoren der 3. Generation auswählen.

Wide and Deep Empfehlungen:

  • Verarbeiten Sie bis zu 1,33-mal mehr Bilder pro Sekunde auf m6i.24xlarge-Instanzen mit 96 vCPUs und skalierbaren Intel Xeon-Prozessoren der 3. Generation.

  • Verarbeiten Sie bis zum 1,22-fachen der Bilder pro Sekunde auf m6i.16xlarge-Instanzen mit 64 vCPUs und skalierbaren Intel Xeon-Prozessoren der 3. Generation.

  • Verarbeiten Sie bis zum 1,22-fachen der Bilder pro Sekunde auf m6i.4xlarge-Instanzen mit 16 vCPUs und skalierbaren Intel Xeon-Prozessoren der 3. Generation.

author-image

Von

Über verschiedene Instanzgrößen hinweg führten M6i-Instanzen mehr Inferenzoperationen pro Sekunde durch als M5n-Instanzen mit skalierbaren Intel Xeon-Prozessoren der 2. Generation

Eine Anwendung der Deep Learning-Inferenz ist das Generieren von Empfehlungen für Käufer, die Ihre Website besuchen. Während sie surfen, sammeln Sie Daten zu den Produkten, die sie interessieren. Sie können diese Daten zusammen mit Mustern von anderen Besuchern verwenden, um auf andere Produkte zu schließen, die ihnen gefallen könnten, und sie zu empfehlen. Um diese Datenanalyse in Echtzeit durchzuführen, um den Umsatz Ihres Unternehmens zu steigern, können Sie Deep Learning-Workloads verwenden – insbesondere Wide & Deep-Empfehlungsmaschinen.

Wir haben die Wide & Deep-Inferenzleistung von zwei EC2-Cloud-Instance-Typen von Amazon Web Services (AWS) mit unterschiedlichen Prozessorkonfigurationen verglichen: M6i-Instances mit skalierbaren Intel® Xeon®-Prozessoren der 3. Generation und M5n-Instances mit skalierbaren Intel Xeon-Prozessoren der 2. Generation. Wir haben festgestellt, dass kleine, mittlere und große M6i-Instanzen mit skalierbaren Intel Xeon-Prozessoren der 3. Generation ihre M5n-Pendants übertrafen. Dies bedeutet, dass Unternehmen, die schnellere Empfehlungen mit Wide & Deep Inference-Workloads liefern möchten, dies tun können, indem sie M6i-Instanzen auswählen.

Große M6i-Instanzen mit 96 vCPUs

Um die Leistung der Wide & Deep-Empfehlungs-Engine der beiden AWS-Instanz-Serien zu testen, haben wir das TensorFlow-Framework verwendet. Wie Abbildung 1 zeigt, verarbeiteten die m6i.24xlarge-Instanzen mit 96 vCPUs, die durch skalierbare Intel Xeon-Prozessoren der 3. Generation aktiviert wurden, beim Wide & Deep-Benchmark das 1,33-fache der Bilder pro Sekunde (FPS) als die m5n.24xlarge-Instanzen mit skalierbaren Intel Xeon-Prozessoren der 2. Generation.

Abbildung 1: Anzahl der Bilder pro Sekunde, die von einem m6i.24xlarge-Instanz-Cluster mit skalierbaren Intel Xeon-Prozessoren der 3. Generation und von einem m5n.24xlarge-Cluster mit skalierbaren Intel Xeon-Prozessoren der 2. Generation erreicht werden. Beim Testen wurde die Genauigkeit von int8 und die Stapelgröße von 512 verwendet. Höher ist besser.

Mittelgroße M6i-Instanzen mit 64 vCPUs

Wie Abbildung 2 zeigt, bewältigten die m6i.16xlarge-Instanzen mit 64 vCPUs, die durch skalierbare Intel® Xeon® Prozessoren der 3. Generation aktiviert wurden, 1,22-mal mehr FPS als die m5n.16xlarge-Instanzen mit skalierbaren Intel Xeon-Prozessoren der 2. Generation.

Abbildung 2: Anzahl der Bilder pro Sekunde, die von einem m6i.16xlarge-Instanz-Cluster mit skalierbaren Intel Xeon-Prozessoren der 3. Generation und von einem m5n.16xlarge-Cluster mit skalierbaren Intel Xeon-Prozessoren der 2. Generation erreicht werden. Beim Testen wurde die Genauigkeit von int8 und die Stapelgröße von 512 verwendet. Höher ist besser.

Kleine M6i-Instanzen mit 16 vCPUs

Wie Abbildung 3 zeigt, bewältigten die m6i.4xlarge-Instanzen mit 16 vCPUs, die durch skalierbare Intel Xeon-Prozessoren der 3. Generation aktiviert wurden, 1,22-mal mehr FPS als die m5n.4xlarge-Instanzen mit skalierbaren Intel Xeon-Prozessoren der 2. Generation.

Abbildung 3: Anzahl der Bilder pro Sekunde, die von einem m5n.4xlarge-Instanz-Cluster mit skalierbaren Intel Xeon-Prozessoren der 3. Generation und von einem m6i.4xlarge-Cluster mit skalierbaren Intel Xeon-Prozessoren der 2. Generation erreicht werden. Beim Testen wurde die Genauigkeit von int8 und die Stapelgröße von 512 verwendet. Höher ist besser.

Fazit

Wir haben die Leistung der Wide & Deep-Empfehlungs-Engine auf zwei AWS-Instanz-Serien getestet: M6i-Instanz mit skalierbaren Intel Xeon-Prozessoren der 3. Generation und M5n-Instanz mit skalierbaren Intel Xeon-Prozessoren der 2. Generation. Bei drei verschiedenen Größen verarbeiteten die M6i-Instanzen mehr Bilder pro Sekunde, bis zu 1,33-mal so viele. Um Ihren Umsatz zu steigern, führen Sie Ihre Wide & Deep-Empfehlungsworkloads auf Amazon M6i-Instanzen mit skalierbaren Intel Xeon-Prozessoren der 3. Generation aus.

Weitere Informationen

Besuchen Sie https://aws.amazon.com/ec2/instance-types/m6i/, um mit der Ausführung Ihrer Wide & Deep-Empfehlungs-Workloads auf Amazon M6i-Instances mit skalierbaren Intel Xeon-Prozessoren der 3. Generation zu beginnen.

Für vollständige Testdetails und Ergebnisse, die zeigen, wie sich diese skalierbaren Intel Xeon-Prozessoren der 3. Generation im Vergleich zu Instanzen mit skalierbaren Intel Xeon-Prozessoren der 2. Generation geschlagen haben, lesen Sie den Bericht unter https://facts.pt/ZlqeNXb.