Analysieren Sie die 1,51-fache Datenmenge pro Sekunde für Apache Spark™-Workloads mit Google Cloud™ N2 VM-Instanzen

Apache Spark

  • Analysieren Sie mehr Daten pro Sekunde mit einem 1,51-fachen Durchsatz.

  • Optimieren Sie die Datenanalyse und das maschinelle Lernen in der Cloud.

  • Beschleunigen Sie Workloads mit persistentem Intel Optane Speicher.

author-image

By

Mit Google Cloud N2 VM-Instanzen mit skalierbaren Intel® Xeon®-Prozessoren der 2. Generation erhalten Sie schneller Einblicke in Ihre Daten

Datenanalysen, maschinelles Lernen und künstliche Intelligenz sortieren riesige Mengen an Unternehmensdaten und machen sie sinnvoll nutzbar. Da derartige Arbeitslasten rechenintensiv sind, erfordert das Hosten in der Cloud Hardware, die den besonderen Herausforderungen gewachsen ist, die mit der Gewinnung schneller Erkenntnisse aus Daten verbunden sind. Wenn in Ihrem Unternehmen Apache Spark-Cluster eingesetzt werden, die eine einheitliche Analyseplattform für die Verarbeitung von Big Data bieten, wirkt sich der von Ihnen gewählte Typ der VM-Instanz direkt auf die Geschwindigkeit aus, mit der Sie Daten in Maßnahmen umwandeln können. Bei anspruchsvollen Apache Spark-Workloads können Google Cloud N2 VM-Instanzen mit skalierbaren Intel Xeon-Prozessoren der 2. Generation maschinelle Lern-Workloads für die Datenanalyse beschleunigen, damit Ihr Unternehmen neue Initiativen schnell vorantreiben kann.

Bei einem Vergleich der k-means-Clustering-Leistung für maschinelles Lernen haben neuere Google Cloud N2 VM-Instanzen mit skalierbaren Intel Xeon-Prozessoren der 2. Generation ältere N1 VM-Instanzen mit Intel Xeon E5 v4-Prozessoren übertroffen und bis zu 1,51 Mal mehr Daten pro Sekunde für Apache Spark-Arbeitslasten für erweiterte Datenanalyse analysiert.

Analysieren Sie mehr Daten pro Sekunde mit dem 1,51-fachen Durchsatz

Cloud-Instanzen bieten zunehmend Unterstützung für rechenintensive Workloads wie Datenanalyse, maschinelles Lernen und künstliche Intelligenz (KI). Dies ist ein Segen für Unternehmen, die die Agilität und Flexibilität, die Cloud Computing für den Rest ihres Unternehmens mit sich bringt, nutzen möchten.

Die Tests zum Vergleich der k-means-Clustering-Leistung mit der HiBench-Benchmark-Suite zeigen, dass Google Cloud N2 VM-Instanzen mit skalierbaren Intel Xeon-Prozessoren der zweiten Generation Apache Spark-Workloads für maschinelles Lernen um das bis zu 1,51-fache der Daten pro Sekunde im Vergleich zu N1 VM-Instanzen mit Intel Xeon E5 v4-Prozessoren steigern können.

Das bedeutet, dass die Wahl von Google Cloud N2 VM-Instanzen gegenüber N1 VM-Instanzen die Geschwindigkeit, mit der Ihr Unternehmen Daten verarbeiten kann, drastisch erhöhen kann.

Abbildung 1: Relativer Durchsatzvergleich von Google Cloud N1 und N2 VM bhn-Instanzen (32 vCPU/128GB RAM) für k-means Clustering-Workloads aus der HiBench Benchmark-Suite.

Neue Technologien in den skalierbaren Intel Xeon-Prozessoren der 2. Generation optimieren die Datenanalyse

Mit Google Cloud N2 VM-Instanzen haben Sie Zugriff auf Schlüsseltechnologien, die in skalierbaren Intel® Xeon® Prozessoren der 2. Generation eingebettet sind, um rechenintensive fortschrittliche Datenanalysen und maschinelle Lernprozesse zu optimieren. Intel Advanced Vector Extensions 512 (Intel AVX-512) verarbeitet mehr Daten mit einer einzigen Anweisung, erledigt Rechenaufgaben schneller und beschleunigt diese fortgeschrittenen Workloads. Google Cloud N2 VM-Instanzen mit skalierbaren Intel Xeon Prozessoren der 2. Generation bieten Intel Deep Learning Boost (Intel DL Boost), der neuronale Netzwerkschleifen optimiert, um KI-Operationen um das 3,4-fache zu verbessern, und damit ein hervorragendes Werkzeug für die Optimierung fortschrittlicher Datenanalysen und maschineller Lernprozesse darstellt. Für noch mehr Flexibilität nutzen Google Cloud N2 VM-Instanzen mit skalierbaren Intel Xeon-Prozessoren der zweiten Generation auch feldprogrammierbare Gate-Arrays (FGPAs) von Intel, die für verschiedene ML-Modelle rekonfiguriert werden können, bei denen sich die Algorithmen häufig ändern, um die KI-Operationen zu beschleunigen.

Beschleunigen Sie Workloads mit persistentem Intel Optane Speicher

Google Cloud N2 VM-Instanzen, die von skalierbaren Intel Xeon-Prozessoren der 2. Generation unterstützt werden, bieten auch die Möglichkeit, Datenanalyse-Workloads mit persistentem Intel Optane-Speicher (PMem) weiter zu beschleunigen. Intel Optane PMem ist eine Kombination aus Arbeitsspeicher und Speichertechnologie, die es den Google Cloud N2 VM-Instanzen ermöglicht, mehr Daten näher am Prozessor zu platzieren, um niedrigere Latenzen für Datenanalysen und maschinelles Lernen zu erreichen.

Weitere Informationen

Wenn Sie Ihre Apache Spark-Workloads für maschinelles Lernen auf Google Cloud VM-Instanzen mit skalierbaren Intel Xeon-Prozessoren der zweiten Generation starten möchten, besuchen Sie http://intel.de/GoogleCloud.