Analysieren Sie bis zu 1.55-mal mehr Daten pro Sekunde für Apache Spark™ Workloads mit Microsoft® Azure® Dds_v4 VMs mit skalierbaren Intel® Xeon® Prozessoren der 2. Generation

Apache Spark

  • Analysieren Sie mehr Daten pro Sekunde mit 1.23-mal mehr Durchsatz auf kleinen VMs.

  • 1.46-mal mehr Durchsatz auf mittelgroßen VMs.

  • 1.55-mal mehr Durchsatz auf großen VMs.

author-image

By

Beschleunigen Sie Workloads für maschinelles Lernen mit VMs der Microsoft Azure Dds_v4-Reihe, die mit skalierbaren Intel Xeon Prozessoren der 2. Generation ausgestattet sind.

Die von Ihrem Unternehmen erfassten riesigen Datenmengen sinnvoll zu nutzen ist keine leichte Aufgabe. Dazu benötigen Sie aktuelle Technik, um schnell arbeiten zu können. Die von Ihnen für das Hosting von Apache Spark Clustern gewählten Microsoft Azure Cloud-VMs geben vor, wie schnell Sie umsetzbare Informationen aus Ihren Daten erhalten und sie in Geschäftsstrategien umwandeln können. Für anspruchsvolle Apache Spark Workloads für maschinelles Lernen auf Microsoft Azure können Sie durch die Wahl von Dds_v4-VMs mit skalierbaren Intel Xeon Prozessoren der 2. Generation mehr Daten pro Sekunde analysieren, um die Agilität Ihres Unternehmens zu steigern.

Bei Tests von zwei Implementierungen für maschinelles Lernen, bei denen Microsoft Azure VMs verglichen wurden, schnitten neuere VMs der Dds_v4-Reihe mit skalierbaren Intel Xeon Prozessoren der 2. Generation besser ab als ältere VMs der Ds_v3-Reihe mit Intel Xeon E5 v4 Prozessoren und analysierten bis zu 1.55-mal mehr Daten pro Sekunde für Apache Spark Worloads für maschinelles Lernen.

Bei kleinen, mittelgroßen und großen VMs können Sie aufgrund der Entscheidung für VMs der Dds_v4-Reihe mit skalierbaren Intel Xeon Prozessoren der 2. Generation gegenüber älteren Ds_v3-VMs mehr Daten schneller sortieren und faktenbasierte Geschäftsentscheidungen treffen, die auf diesen Daten basieren.

Kleine Unternehmen erhalten mit kleinen VMs schneller Erkenntnisse

Nur weil ein Unternehmen nicht besonders groß ist bedeutet das nicht, dass auch die Anforderungen in puncto machinelles Lernen gering sind. Für umfassende Anforderungen an das maschinelle Lernen auf kleinen VMs kann durch die Wahl aktualisierter Technik sichergestellt werden, dass Cloud-VMs dem aktuellen Bedarf gerecht werden und Raum für Wachstum bieten.

Tests, bei denen kleine VMs mit acht vCPUs verglichen wurden, zeigen, dass mit Microsoft Azure Dds_v4-VMs mit skalierbaren Intel Xeon Prozessoren der 2. Generation für Apache Spark Workloads für maschinelles Lernen 1.23-mal mehr Daten pro Sekunde verarbeitet werden als mit VMs der Ds_v3-Reihe mit Intel Xeon E5 v4 Prozessoren.

Abbildung 1. Vergleich des relativen Durchsatzes auf kleinen VMs (8 vCPU/32 GB RAM) für Naive-Bayes-Klassifizierung und k-means-Clustering-Workloads aus der HiBench Benchmark-Suite.

Mittelgroße Unternehmen erhalten mit mittelgroßen VMs schneller Erkenntnisse

Wie bei Tests mit kleinen VMs ergaben Tests, bei denen mittelgroße VMs mit 16 vCPUs verglichen wurden, ebenfalls, dass Microsoft Azure Dds_v4-VMs mit skalierbaren Intel® Xeon® Prozessoren der 2. Generation sowohl Naive-Bayes-Klassifizierung als auch k-means-Clustering für Implementierungen für maschinelles Lernen unter Apache Spark verbesserten, in diesem Fall lieferten sie 1.46-mal mehr Durchsatz als ältere Ds_v3-VMs.

Abbildung 2. Vergleich des relativen Durchsatzes auf mittleren VMs (16 vCPU/64 GB RAM) für Naive-Bayes-Klassifizierung und k-means-Clustering-Workloads aus der HiBench Benchmark-Suite.

Unternehmen erhalten mit großen VMs schneller Erkenntnisse

Tests zeigen, dass die größte Durchsatzverbesserung bei Apache Spark für maschinelles Lernen mit größeren Instanzen (mit 64 vCPUs) erzielt wird. Sie bieten bei einem Naive-Bayes-Klassifizierungstest 1.55-mal mehr Durchsatz als VMs der Ds_v3-Reihe.

Im Vergleich zur älteren Ds_v3-Reihe bieten Microsoft Azure Dds_v4-VMs mit skalierbaren Intel Xeon Prozessoren der 2. Generation unabhängig von der Größe der erforderlichen VMs enorme Leistungsverbesserungen und 50 Prozent größere Standardlaufwerke sowie hohe IOPs auf Standardlaufwerken. Daher können Azure Dds_v4-VMs das maschinelle Lernen gegenüber der Ds_v3-Reihe bei verschiedenen VM-Größen verbessern.

Abbildung 3. Vergleich des relativen Durchsatzes auf großen VMs (64 vCPU/256 GB RAM) für Naive-Bayes-Klassifizierung und k-means-Clustering-Workloads aus der HiBench Benchmark-Suite.

Weitere Informationen

Um mit Ihren Apache Spark Workloads für maschinelles Lernen auf Microsoft Azure VMs der Dds_v4-Reihe mit skalierbaren Intel Xeon Prozessoren der 2. Generation loszulegen, besuchen Sie http://intel.de/Azure.

Weitere Testdetails finden Sie unter http://facts.pt/pg16MAO.