Datenwissenschaftlicher Master-Workflow
Diese speziell entwickelten Workstations kombinieren eine große Speicherbreite, zahlreiche Erweiterungssteckplätze, um mehrere Geräte zu verbinden, und handverlesene CPUS, die speziell auf die einzigartigen Anforderungen von Datenwissenschaftlern und Datenanalysten wie Ihnen zugeschnitten sind.
Datenwissenschaftliche Workstation: Superkräfte inklusive
Als Datenwissenschaftler verbringen Sie die meiste Ihrer Zeit mit dem Umgang mit mittelgroßen und großen Datenmengen in CPU-intensiven Python-Bibliotheken und Algorithmen. Das zwingt die meisten Workstations in die Knie.
Der Grund dafür ist, dass Ihre Workstation wahrscheinlich für Modelltraining überausgelegt ist, für speicherintensive Datentransformation aber nicht die ausreichenden Leistungen bietet.
Vermeiden Sie Speicherfehler, wenn Sie versuchen, Daten zu laden und zu untersuchen. Das ist häufig der Fall, wenn Pandas-Funktionen mehr Arbeitsspeicher benötigen, als Ihr Computer oder Ihre Cloud-Instanz verfügbar hat.
Schnelleres NumPy/SciPy-Computing als mit der vorherigen Generationen
Lineare Algebra ist die Grundlage der Numerik und Datenwissenschaft. Die von NumPy und SciPy bereitgestellten numerischen Computing-Tools ermöglichen es dem Datenwissenschaftler, numerische Analysen und Funktionen sowie eine Vielzahl von maschinellen Lernmodellen und mathematischen Formeln zu bearbeiten. iBench ist eine Benchmark, die Belastungsbefehle in der linearen Algebra gängiger Algorithmen testet, die in NumPy und SciPy verwendet werden, wie dot, det, inv, lu, qr und svd. Die Leistung wird in Sekunden gemessen (niedriger ist besser). Im Vergleich zu Xeon-W3275 der 3. Generation lief Xeon-W3495X bei den neuesten iBench-Tests 25 % bis 75 % schneller.1
Turbolader für die Datenwissenschaft
Wir haben datenwissenschaftliche Workstations mit Intel Technik entwickelt, um datenintensive KI- und Machine-Learning-Workflows schnell, flüssig und reaktionsschnell zu gestalten. Mit bis zu 8 TB Arbeitsspeicher in Dual-Socket-Systemen und Workload-abgestimmten CPUs können diese Workstations mittlere bis große Datenmengen im Arbeitsspeicher ausführen und die zeitraubenden Aufgaben der KI-Entwicklung verkürzen.
Empfohlene datenwissenschaftliche Workstations mit Intel Technik
Datenwissenschaftliche Workstations mit Intel Technik gibt es in drei Plattformen – mobil, Mainstream und Expert und einer Vielzahl von CPUs, Speicherkapazitäten und PCIe-Erweiterungssteckplätzen.
Datenwissenschaftliche mobile Plattformen für 32-GB- bis 64-GB-Datenmengen
Bemerkenswerte Leistung für die mobile KI-Entwicklung und Datenvisualisierung.
- Intel Core der HX-Reihe mit bis zu 24 Kernen (8P+16E).
- 128 GB DDR5-DRAM für alle Plattformen.
- Empfohlene SKUs:
- i9-13950HX (24 Kerne)
- i7-13850HX (20 Kerne)
Datenwissenschaftliche Mainstream-Plattformen für 64-GB- bis 512-GB-Datensätze
Ausgezeichnetes Preis-Leistungs-Verhältnis für Vorverarbeitung und Analysen mittelgroßer Datenmengen.
- Intel Xeon W-2400 Prozessoren mit bis zu 24 übertaktbaren Kernen.
- Bis zu 2 TB DDR5-RIDMM.
- Empfohlene SKUs:
- W7-2495X (24 Kerne)
- W5-2465X (16 Kerne)
Datenwissenschaftliche Experten-Plattformen für bis zu 8 TB DDR5 für Dual-Socket-Plattformen
Maximale Leistung für die Bearbeitung großer Datenmengen, maschinelles Lernen und Datenanalysen.
- Intel Xeon W-3400 Prozessoren mit bis zu 56 Kernen.
- Bis zu 4 TB DDR5-RIDMM für die W-3400-Reihe und bis zu 8 TB DDR5 für Dual-Socket-Xeon SP-Plattformen der 4. Generation.
- Empfohlene SKUs für Single-Socket-Plattformen:
- W9-3475X (36 Kerne)
- W7-3455 (24 Kerne)
- W5-3425X (16 Kerne)
- Empfohlene SKUs für Dual-Socket-Plattformen:
- 6448Y (32 Kerne)
- 6442Y (24 Kerne)
- 6444Y (16 Kerne)
Wählen Sie Ihre datenwissenschaftliche Workstation mit Intel Technik
Datenwissenschaftliche Workstations mit Intel Technik werden in verschiedenen Konfigurationen und unterschiedlichen Preisniveaus von Intel Partnern und Herstellern angeboten.
Schnellere Ausführung mit dem Intel® oneAPI AI Analytics-Toolkit
Wir haben die beliebtesten Tools im Python-Umfeld für Architekturen von Intel optimiert und sie im Intel oneAPI AI Analytics-Toolkit gebündelt, um Ihnen die Erstellung Ihrer datenwissenschaftlichen Umgebung zu erleichtern und die Leistung dieser Tools zu steigern. Diese Drop-In-Optimierungen sind jederzeit einsatzbereit, damit Sie mit wenigen bis gar keinen Programmänderungen schneller arbeiten können.
Häufig gestellte Fragen
Bei der Auswahl einer datenwissenschaftlichen Workstation gibt es zwei Hauptfaktoren: Welche Tools und Techniken Sie am häufigsten verwenden, und die Größe Ihrer Datenmengen.
In puncto datenwissenschaftliche Frameworks bedeuten höhere Kernzahlen nicht immer eine bessere Leistung. NumPy, SciPy und scikit-learn skalieren nicht gut über 18 Kerne hinaus. Andererseits setzt HEAVY.AI (früher OmniSci) alle Kerne ein, die es bekommen kann.
Alle datenwissenschaftlichen Workstations mit Intel Technik verwenden Intel® Core™, Intel® Xeon® W und skalierbare Intel® Xeon® Prozessoren, die in Praxistests bei datenwissenschaftlichen Workloads hervorragende Leistungen erzielt haben. Sie erhalten von ihnen allen die optimale Leistung innerhalb der jeweiligen Prozessorfamilie, was die Speicherkapazität zu Ihrer wichtigsten Wahl macht.
Datenwissenschaftliche Frameworks verdoppeln oder verdreifachen den Arbeitsspeicheraufwand. Um Ihre grundlegenden Arbeitsspeicheranforderungen zu ermitteln, untersuchen Sie Ihre typischen Datenmengen und multiplizieren Sie diese mit drei. Falls Sie mit 512 GB oder weniger arbeiten können, können Sie mit einem Desktop-Rechner hervorragende Leistungen erzielen. Wenn Ihre Datenmengen tendenziell über 500 GB liegen, ist ein Tower mit 1,5 TB Arbeitsspeicher oder mehr empfehlenswert.
GPU-Beschleuniger glänzen bei Deep-Learning-Modelltraining und groß angelegter Deep-Learning-Inferenz. Für den Großteil der datenwissenschaftlichen Arbeit – – Datenvorbereitung, Analyse und klassisches maschinelles Lernen – bleiben diese GPUs jedoch ungenutzt, da die meisten Python-Bibliotheken für die Datenwissenschaft nativ auf der CPU ausgeführt werden. Sie benötigen einen Grafikadapter, um Ihre Displays zu betreiben, aber keine GPU-Appliance.
Die Cloud bietet Ihnen nicht die beste Leistung, es sei denn, Sie arbeiten mit einem dedizierten VM- oder Bare-Metal-Server. Cloud-Instanzen stellen sich als einzelner Knoten dar, am Backend findet jedoch eine starke Verteilung statt. Ihre Workload und Daten werden auf mehrere Server an mehreren Standorten aufgeteilt. Dies führt zu Verarbeitungs- und Arbeitsspeicherlatenzen, die die Laufzeit verschlechtern. Außerdem ist die Arbeit mit großen Datenmengen und Grafiken über einen Remote-Desktop-Rechner keine ideale Erfahrung.
Wenn Workload und Daten lokal auf einem einzigen Rechner bleiben, sind eine viel bessere Leistung und ein flüssigeres und reaktionsschnelleres Arbeitserlebnis möglich.
Das ist möglich, aber Sie verschwenden viel Zeit mit der Beobachtung des Daten-Hin-und-Hers zwischen Datenspeicher, Arbeitsspeicher und CPU. Wenn Sie in einem professionellen Umfeld arbeiten, kann ein Upgrade auf einen datenwissenschaftlichen Intel® Laptop-Rechner oder Desktop-PC im mittleren Bereich viel Zeit sparen. Wir haben absichtlich datenwissenschaftliche Laptops mit Intel® Core™ Technik getestet und spezifiziert, damit Studierende, Anfänger und KI-Entwickler eine erschwingliche Option für die Entwicklung und das Experimentieren mit Open-Source-KI-Tools erhalten.
Sie können datenwissenschaftliche Tools auf Python-Basis schneller auf einem Standard-PC mit für Intel optimierten Bibliotheken und Verteilungen ausführen. Sie sind alle Teil des kostenlosen Intel AI Kits.
Hinweise und Disclaimer
Schätzung der Messungen mit der Intel Validierungsplattform, Vergleich von Intel Xeon w9-3495X mit Intel® Xeon® W-3275 auf NumPy/SciPy – Inv, N=25000
Einzelheiten zur Konfiguration siehe intel.com/performanceindex. Die Ergebnisse können von Fall zu Fall abweichen.
Die Leistungswerte basieren auf Tests, die mit den in den Konfigurationen angegebenen Daten durchgeführt wurden und spiegeln möglicherweise nicht alle öffentlich verfügbaren Updates wider. Weitere Konfigurationsdetails siehe Backup. Weitere Informationen erhalten Sie unter intel.com/PerformanceIndex.
Pandas, scikit-learn und TensorFlow-Beschleunigung erzielt mit der Intel® Distribution von Modin. Einzelheiten finden Sie unter intel.com/content/www/de/de/developer/articles/technology/code-changes-boost-pandas-scikit-learn-tensorflow.html#gs.mdyh9o.
© Intel Corporation. Intel, das Intel Logo und andere Intel Markenbezeichnungen sind Marken der Intel Corporation oder ihrer Tochtergesellschaften. Andere Marken oder Produktnamen sind Eigentum der jeweiligen Inhaber.