Träge KI? Intel® Optane™ SSDs beschleunigen die Prozesse.

Von Peter Krass, Autor für CRN

Künstliche Intelligenz: extrem cool, aber auch extrem komplex. Und diese Komplexität kann die Abläufe ernsthaft verlangsamen, ganz im Gegenteil zu dem, was Ihre Kunden wollen.

Glücklicherweise hat Intel eine ebenso coole Lösung aufgezeigt: die Ergänzung der KI-Pipeline mit Intel® Optane™ SSDs (Solid-State-Drives) als Datenspeichereinheiten. Damit können sich die Kunden den Wert ihrer Daten leichter erschließen.

Diese SSDs können Ihren Kunden obendrein helfen, ihre Kosten für Datenspeicher zu senken, den Platzbedarf zu reduzieren und die Effizienz ihrer Betriebsabläufe zu verbessern. Nichts daran ist kompliziert.

In der KI-Pipeline

KI-Systeme können träge werden, weil ihre Datenverarbeitung so umfangreich ist. Um schließlich zu einem sinnvollen Ergebnis zu gelangen, müssen die Daten zunächst eine KI-Pipeline durchlaufen, die aus 4 Hauptabschnitten besteht:

1. Einlesen: Zu Beginn werden die Daten als Eingabe von mehreren Quellen empfangen.

2. Vorbereiten: Als Nächstes werden die eingelesenen Rohdaten strukturiert, bereinigt und aufbereitet.

3. Trainieren: In diesem Stadium wird mittels Analyse ein KI-Modell entwickelt.

4. Inferenz: Das Resultat: Die Analysen werden modelliert und in Echtzeit auf neue Daten angewendet.

Die Komplexität wird noch dadurch erhöht, dass sich die Menge, die Schnelligkeit und die Unterschiedlichkeit der Daten während ihres Durchgangs durch die KI-Pipeline verändert. So fallen zum Beispiel beim Einlesen Rohdaten im Umfang von Petabyte an. Diese werden dann beim Vorbereiten auf Gigabyte von Daten in strukturierten und unstrukturierten Formaten verdichtet. Und schließlich werden daraus trainierte Modelle im Umfang von Kilobyte.

Auch die Aufgaben für den Datenspeicher können wechseln. Beim Einlesen besteht die Arbeit fast ausschließlich aus Schreibvorgängen. Während der Vorbereitung werden Daten etwa je zur Hälfte gelesen und geschrieben. Und beim Trainieren und bei der Inferenz sind praktisch immer Lesevorgänge aktiv.

Eine einfache Lösung

Intels vereinfachende Lösung ist die Einrichtung einer gemeinsamen Datenpipeline als Basis der 4 Pipelineabschnitte, die in zweierlei Hinsicht aufgewertet wird: zum einen durch platzsparende hohe Speicherkapazität und zum anderen durch hochleistungsfähige, skalierbare Datenspeichertechnik.

Darunter befindet sich in dieser Struktur ein Datensee oder Media Store, der als zentraler Speicher für alle strukturierten oder unstrukturierten Daten mit beliebigem Umfang dient.

Intel® Optane™ SSDs können die Abläufe in jeder der 4 Phasen der Pipeline beschleunigen. Beim Einlesen können die SSDs einen Puffer darstellen, der eine Skalierung sowohl mit hoher Schreibleistung als auch geringer Latenz ermöglicht (wobei geringere Latenz stets besser ist).

Während der Vorbereitung überzeugen Intel® Optane™ SSDs durch ihre schnellen Schreib-/Lesezyklen, die den Zeitaufwand reduzieren.

Das Trainieren wird erheblich dadurch beschleunigt, dass sich die Intel® Optane™ SSDs durch hohen Durchsatz beim Lesen mit wahlfreiem Zugriff und geringe Latenz sowie durch ihre Möglichkeit, temporäre Daten während der Modellierung beschleunigt bereitzustellen, auszeichnen.

Und für die Inferenz kann die Intel® Optane™ Technik trainierte Modelle beschleunigen, sogar bei den Endsystemen am Netzwerkrand.

Schnellerer Datenspeicher, schnelleres KI-Training

So viel zur Theorie. Die Frage ist nun: Inwiefern sind Intel® Optane™ SSDs in der Praxis nützlich für die KI?

Nehmen wir das Unternehmen Baidu als Beispiel. Das in Peking ansässige Technologieunternehmen hat für seine KI-Cloud-Lösung Datenspeichersysteme konfiguriert, die Intel® Optane™ SSDs mit der Intel® QLC-3D-NAND-Technik kombinieren. Die hochleistungsfähige, vollständig auf Flash-Technik aufgebaute Objekt-Datenspeicherlösung unterstützt die Private-Cloud-Anwendungen von Baidu, einschließlich KI-Training, in besonders wirksamer und zuverlässiger Weise.

Baidu weiß eine Menge über Datenspeicherung. Die gesamten Speicher des Unternehmens bieten immerhin Platz für ca. 2000 Petabyte (PB) Daten, genug für mehr als 100 Milliarden Textseiten.

Das KI-Training konfrontierte das Unternehmen allerdings mit einer neuen Datenspeicher-Problematik. Diese KI-Phase beinhaltet umfangreiche Teilprozesse der Datenverarbeitung – Erfassen, Bereinigen und Kennzeichnen, Ändern der Datengröße, Modellieren, Auswerten und Vorhersage. Jeder dieser Prozesse erfordert vom Datenspeichersystem Lesen, Schreiben und das Abrufen von Operationen, und das möglichst schnell.

Baidu konnte diese Herausforderung mit zwei Datenspeicherprodukten von Intel bewältigen: den Intel® Optane™ DC-SSDs des Typs P4800X für zentrale Speichersysteme einschließlich Cache-, MDS- und Protokollsystem – und den Intel® SSDs der Produktreihe D5-P4320 für Massenspeicher mit großer Kapazität.

Diese Kombination hat nicht nur die technischen Anforderungen von Baidu erfüllt, sondern auch die Gesamtbetriebskosten des Unternehmens gesenkt, und zwar laut eigenen Tests von Baidu um ganze 60 %.

Rasche KI

Wenn Sie den KI-Konfigurationen Ihrer Kunden wieder auf die Sprünge helfen wollen, dann informieren Sie sich über die Intel® Optane™ SSDs.

Nutzen Sie die folgenden Ressourcen, um mehr über die Intel® Optane™ Technik zu erfahren:

Technikinfo: Wie Datenspeicher von Intel KI-Systeme beschleunigt

Produktseite: Intel® SSDs für Rechenzentren

Praxisbeispiel Baidu: Neudefinition eines objektorientierten Datenspeichers für eine hochleistungsfähige, vollständig auf Flash-Technik basierende Lösung für KI-, Big-Data- und HPC-Anwendungen