Datenwissenschaftlicher Master-Workflow

Diese speziell entwickelten Workstations kombinieren eine große Speicherbreite, zahlreiche Erweiterungssteckplätze, um mehrere Geräte zu verbinden, und handverlesene CPUS, die speziell auf die einzigartigen Anforderungen von Datenwissenschaftlern und Datenanalysten wie Ihnen zugeschnitten sind.

Häufig gestellte Fragen

Bei der Auswahl einer datenwissenschaftlichen Workstation gibt es zwei Hauptfaktoren: Welche Tools und Techniken Sie am häufigsten verwenden, und die Größe Ihrer Datenmengen.

In puncto datenwissenschaftliche Frameworks bedeuten höhere Kernzahlen nicht immer eine bessere Leistung. NumPy, SciPy und scikit-learn skalieren nicht gut über 18 Kerne hinaus. Andererseits setzt HEAVY.AI (früher OmniSci) alle Kerne ein, die es bekommen kann.

Alle datenwissenschaftlichen Workstations mit Intel Technik verwenden Intel® Core™, Intel® Xeon® W und skalierbare Intel® Xeon® Prozessoren, die in Praxistests bei datenwissenschaftlichen Workloads hervorragende Leistungen erzielt haben. Sie erhalten von ihnen allen die optimale Leistung innerhalb der jeweiligen Prozessorfamilie, was die Speicherkapazität zu Ihrer wichtigsten Wahl macht.

Datenwissenschaftliche Frameworks verdoppeln oder verdreifachen den Arbeitsspeicheraufwand. Um Ihre grundlegenden Arbeitsspeicheranforderungen zu ermitteln, untersuchen Sie Ihre typischen Datenmengen und multiplizieren Sie diese mit drei. Falls Sie mit 512 GB oder weniger arbeiten können, können Sie mit einem Desktop-Rechner hervorragende Leistungen erzielen. Wenn Ihre Datenmengen tendenziell über 500 GB liegen, ist ein Tower mit 1,5 TB Arbeitsspeicher oder mehr empfehlenswert.

GPU-Beschleuniger glänzen bei Deep-Learning-Modelltraining und groß angelegter Deep-Learning-Inferenz. Für den Großteil der datenwissenschaftlichen Arbeit – – Datenvorbereitung, Analyse und klassisches maschinelles Lernen – bleiben diese GPUs jedoch ungenutzt, da die meisten Python-Bibliotheken für die Datenwissenschaft nativ auf der CPU ausgeführt werden. Sie benötigen einen Grafikadapter, um Ihre Displays zu betreiben, aber keine GPU-Appliance.

Die Cloud bietet Ihnen nicht die beste Leistung, es sei denn, Sie arbeiten mit einem dedizierten VM- oder Bare-Metal-Server. Cloud-Instanzen stellen sich als einzelner Knoten dar, am Backend findet jedoch eine starke Verteilung statt. Ihre Workload und Daten werden auf mehrere Server an mehreren Standorten aufgeteilt. Dies führt zu Verarbeitungs- und Arbeitsspeicherlatenzen, die die Laufzeit verschlechtern. Außerdem ist die Arbeit mit großen Datenmengen und Grafiken über einen Remote-Desktop-Rechner keine ideale Erfahrung.

Wenn Workload und Daten lokal auf einem einzigen Rechner bleiben, sind eine viel bessere Leistung und ein flüssigeres und reaktionsschnelleres Arbeitserlebnis möglich.

Das ist möglich, aber Sie verschwenden viel Zeit mit der Beobachtung des Daten-Hin-und-Hers zwischen Datenspeicher, Arbeitsspeicher und CPU. Wenn Sie in einem professionellen Umfeld arbeiten, kann ein Upgrade auf einen datenwissenschaftlichen Intel® Laptop-Rechner oder Desktop-PC im mittleren Bereich viel Zeit sparen. Wir haben absichtlich datenwissenschaftliche Laptops mit Intel® Core™ Technik getestet und spezifiziert, damit Studierende, Anfänger und KI-Entwickler eine erschwingliche Option für die Entwicklung und das Experimentieren mit Open-Source-KI-Tools erhalten.

Sie können datenwissenschaftliche Tools auf Python-Basis schneller auf einem Standard-PC mit für Intel optimierten Bibliotheken und Verteilungen ausführen. Sie sind alle Teil des kostenlosen Intel AI Kits.