Analysieren Sie mehr Daten mit bis zu 1,72-fachem Durchsatz für Apache Spark Workloads mit Amazon EC2 M5n Instanzen mit skalierbaren Intel Xeon Prozessoren der 2. Generation

Apache Spark

  • Analysieren Sie mehr Daten mit dem 1,57-fachen Durchsatz auf kleinen Instanzen.

  • 1,42-facher Durchsatz auf mittleren Instanzen.

  • 1,72-facher Durchsatz bei großen Instanzen.

author-image

Von

Instanzen der Produktreihe Amazon Web Services der Produktreihe M5n mit skalierbaren Prozessoren Intel® Xeon®

Steigern Sie den Durchsatz für maschinelles Lernen mit Amazon EC2 M5n Series Instanzen der 2. Generation Intel Xeon skalierbaren Prozessoren

Während Big Data weiter wächst, müssen Unternehmen Wege finden, um die aus den Daten gewonnenen Erkenntnisse zu durchsuchen und zu nutzen, um auf dem Markt agil zu bleiben. Die Ausführung von Datenanalysen in der Cloud entlastet die Verwaltung bei der Verwaltung, aber es kann schwierig sein, die Auswirkungen zu erkennen, die die Wahl der Instanz auf die Leistung komplexer Datenanalyse-Workloads haben kann. Bei Apache Spark Workloads auf Amazon EC2 kann die Auswahl von M5n-Instanzen, die von skalierbaren Prozessoren der 2. Generation aktiviert sind Intel Xeon, mehr Durchsatz bieten, um mehr Daten gleichzeitig zu sortieren, um Ihnen schneller Erkenntnisse zu liefern.

In Tests von zwei Implementierungen für maschinelles Lernen, bei denen Amazon EC2-Instanzen verglichen wurden, wurden neuere Instanzen der M5n-Reihe durch Intel Xeon der 2. Generation aktiviert.

Skalierbare Prozessoren übertrumpften ältere Instanzen der M4-Reihe mit Intel Xeon E5 v4 Prozessoren, was einen bis zu 1,72-fachen Datendurchsatz für Apache Spark Workloads ermöglichte.

Unabhängig davon, ob Ihre Workloads für maschinelles Lernen große, kleine, mittlere oder große Instanzen benötigen: Die Auswahl von Instanzen der M5n-Reihe mit skalierbaren Intel Xeon Prozessoren der 2. Generation gegenüber älteren M4-Instanzen kann mehr Daten analysieren und schneller umsetzbare Erkenntnisse liefern.

Verbessern Sie die Time-to-Insight auf kleinen Instanzen

Alle Daten, die ein Unternehmen sammelt, lohnen sich nur, wenn sie es schnell erkennen können. So müssen z. B. Kundenpräferenzvorhersagen und ähnliche Inferenzen in Echtzeit funktionieren, um geschäftliche Auswirkungen zu erzielen. Dies erfordert aktualisierte Technik, die schneller Ergebnisse liefern kann.

Abbildung 1. Relativer Durchsatzvergleich bei kleinen Instanzen (8 vCPU/32 GB RAM) für die Nateroperabilität der Bayesian-Klassifizierung und k-means-Clustering-Workloads aus der HiBench-Benchmark-Suite.

Tests beim Vergleich kleiner Instanzen mit acht vCPUs zeigen, dass Sie Amazon EC2 M5n-Instanzen mit skalierbaren Intel® Xeon® Prozessoren der 2. Generation wählen, was einen bis zu 1,57-fachen Durchsatz für Apache Spark Machine-Learning-Workloads von Instanzen der M4-Reihe mit Intel Xeon E5 v4 Prozessoren bietet.

Verbessern Sie die Time-to-Insight auf mittleren Instanzen

Wie bei kleinen Instanzen zeigten Tests, bei denen mittlere Instanzen mit 16 vCPUs verglichen wurden, dass Amazon EC2 M5n-Instanzen mit skalierbaren Intel® Xeon® Prozessoren der 2. Generation beide Implementierungen des maschinellen Lernens auf Apache Spark verbesserten – in diesem Fall mit dem bis zu 1,42-fachen Durchsatz älterer M4-Instanzen.

Abbildung 2. Relativer Durchsatzvergleich auf mittleren Instanzen (16 vCPU/64 GB RAM) für die Nasfähigkeit der Bayesschen Klassifizierung und k-bedeutet Clustering-Workloads aus der HiBench-Benchmark-Suite.

Verbessern Sie die Time-to-Insight bei großen Instanzen

Tests zeigten, dass die leistung des maschinellen Lernens bei großen Instanzgrößen (mit 64 vCPU) die drastischste Steigerung aufweise, was einen bis zu 1,72-fachen Durchsatz von Instanzen der M4-Reihe für eine K-Mittel-Clustering-Workload bietet.

Abbildung 3. Relativer Durchsatzvergleich bei großen Instanzen (64 vCPU/256 GB RAM) für die Nasfähigkeit der Bayesian-Klassifizierung und k-means-Clustering-Workloads aus der HiBench-Benchmark-Suite.

Dies bedeutet, dass Unternehmen, die schnell handlungsfähige Erkenntnisse aus den Daten gewinnen wollen, von der Auswahl der verbesserten Amazon EC2 M5n Instanzen profitieren können, die durch skalierbare Intel Xeon Prozessoren der 2. Generation aktiviert sind, unabhängig von der Größe der benötigten Instanzen.

Weitere Informationen

Besuchen Sie http://intel.com/AWS, um Ihre Apache Spark Implementierungen auf Amazon EC2 M5n Reihe Instanzen mit Intel Xeon skalierbaren Prozessoren der 2. Generation zu starten.

Weitere Testdetails finden Sie unter http://facts.pt/3Kjn66x.

Der Inhalt dieser Seite ist eine Kombination aus menschlicher und computerbasierter Übersetzung des originalen, englischsprachigen Inhalts. Dieser Inhalt wird zum besseren Verständnis und nur zur allgemeinen Information bereitgestellt und sollte nicht als vollständig oder fehlerfrei betrachtet werden. Sollte eine Diskrepanz zwischen der englischsprachigen Version dieser Seite und der Übersetzung auftreten, gilt die englische Version. Englische Version dieser Seite anzeigen.