Beschleunigung von Workloads für maschinelles Lernen mit VMs der Microsoft Azure Dds_v4-Reihe mit skalierbaren Prozessoren der 2. Generation Intel Xeon
Die Interpretation der enormen Datenmengen, die Ihr Unternehmen sammelt, ist eine große Aufgabe, die aktualisierte Technik erfordert, um diese Aufgabe schnell erledigen zu können. Die Microsoft Azure Cloud-VMs, die Sie für das Hosten von Apache Spark-Clustern auswählen, diktieren, wie schnell Sie verwertbare Informationen aus Ihren Daten erhalten und daraus eine Geschäftsstrategie machen können. Bei anspruchsvollen Machine-Learning-Workloads von Apache Spark in Microsoft Azure kann die Auswahl Dds_v4 VMs, die von skalierbaren Intel Xeon Prozessoren der 2. Generation aktiviert sind, es Ihnen ermöglichen, mehr Daten pro Sekunde zu analysieren, um die Agilität Ihres Unternehmens zu steigern.
In Tests von zwei Implementierungen für maschinelles Lernen beim Vergleich von Microsoft Azure VMs wurden neuere VMs der Dds_v4-Reihe durch skalierbare Intel Xeon Prozessoren der 2. Generation aktiviert, die ältere VMs der Ds_v3-Reihe mit Intel Xeon E5 v4 Prozessoren durchgeführt haben und bis zu 1,55-mal die Daten pro Sekunde für Apache Spark Machine Learning-Workloads analysieren.
Die Auswahl von VMs der Dds_v4 Reihe mit skalierbaren Intel Xeon Prozessoren der 2. Generation im Vergleich zu älteren Ds_v3 VMs ermöglicht es, mehr Daten schneller zu sortieren und geschäftliche Entscheidungen in der Wahrheit zu treffen.
Kleine Unternehmen erhalten mit kleinen VMs früher Erkenntnisse
Nur weil ein Unternehmen klein ist, bedeutet dies nicht, dass die Anforderungen an maschinelles Lernen bestehen. Für große Anforderungen an maschinelles Lernen auf kleinen VMs kann die Wahl der aktualisierten Technologie sicherstellen, dass Cloud-VMs die aktuellen Anforderungen erfüllen und Raum für Wachstum bieten.
Tests beim Vergleich kleiner VMs mit acht vCPUs zeigen, dass Microsoft Azure Dds_v4 VMs mit skalierbaren Intel Xeon Prozessoren der 2. Generation die Aufgabe des maschinellen Lernens Apache Spark um das bis zu 1,23-fache der Daten pro Sekunde von VMs Ds_v3 Reihe mit Intel Xeon E5 v4 Prozessoren steigern können.
Mittelständische Unternehmen erhalten mit mittleren VMs früher Erkenntnisse
Wie bei Tests mit kleinen VM-Größen zeigten Tests, bei denen mittlere VMs mit 16 vCPUs verglichen wurden, dass Microsoft Azure Dds_v4 VMs mit skalierbaren Intel® Xeon® Prozessoren der 2. Generation sowohl Na apache Bayesian als auch k-means-Clustering-Implementierungen für maschinelles Lernen auf Apache Spark verbessert haben – in diesem Fall mit einem bis zu 1,46-fachen Durchsatz älterer Ds_v3 VMs.
Unternehmen erhalten erkenntnisse schneller mit großen VMs
Tests haben gezeigt, dass die größte Durchsatzverbesserung für die Leistung von Apache Spark beim maschinellen Lernen bei größeren Instanzgrößen (mit 64 vCPUs) erzielt werden kann, was einen bis zu 1,55-fachen Durchsatz von VMs der Ds_v3-Reihe für einen Na apache Bayes'schen Klassifizierungstest bietet.
Im Vergleich zur älteren Ds_v3 reihe bieten Microsoft Azure Dds_v4 VMs, die von skalierbaren Prozessoren der 2. Generation aktiviert Intel Xeon sind, erhebliche Leistungsverbesserungen, bieten 50 Prozent größere Standardlaufwerke und hohe IOPS auf Standardlaufwerken, unabhängig von der Größe der benötigten VMs. Auf diese Weise können Azure Dds_v4 VMs maschinelles Lernen über die Ds_v3 Reihe bei mehreren VM-Größen verbessern.
Weitere Informationen
Besuchen Sie http://intel.com/Azure, um Ihre Machine-Learning-Workloads mit Apache Spark auf VMs der Microsoft Azure Dds_v4 Reihe mit skalierbaren Prozessoren der 2 Intel Xeon. Generation zu starten.
Weitere Testdetails finden Sie unter http://facts.pt/pg16MAO.