Mit KI erweitertes HPC
Die für HPC-Implementierungen erforderliche Architektur weist viele Ähnlichkeiten mit KI-Implementierungen auf. Beide nutzen einen hohen Grad an Rechen- und Datenspeicherleistung, eine große Arbeitsspeicherkapazität und Bandbreite sowie Fabrics hoher Bandbreite, um Ergebnisse zu erzielen, indem in der Regel massive Datenmengen mit zunehmender Größe verarbeitet werden. Deep Learning eignet sich hervorragend für Probleme, die mithilfe von HPC angegangen werden und große, mehrdimensionale Datenmengen umfassen. Quantifi z. B. setzte KI mit Intel Technik ein, um die Derivatbewertung auf Finanzmärkten um das 700-Fache im Vergleich zu herkömmlichen Methoden zu beschleunigen.,1 Dabei wurden Ergebnisse für gängige Bewertungs-Workloads fast in Echtzeit bereitgestellt.
KI verspricht im HPC-Bereich, dass KI-Modelle Expertenanalysen von Datensätzen erweitern können, um Ergebnisse schneller auf demselben Genauigkeitsniveau bereitzustellen. Wichtige HPC-Anwendungsfälle profitieren von erweiterten KI-Funktionen wie:
- Analysen für Finanzdienstleistungen (FSI) wie Risiko- und Betrugserkennung, Logistik und Fertigung.
- Industrielles Produktdesign, Computational Fluid Dynamics (CFD), computergestütztes Engineering (CAE) und computergestütztes Design (CAD).
- Wissenschaftliche Visualisierung und Simulation, insbesondere in Bereichen wie der Hochenergiephysik.
- Mustergruppierung, Life Sciences, Genomsequenzierung und medizinische Forschung.
- Geowissenschaften und Exploration im Energiebereich.
- Wetter, Meteorologie und Klimawissenschaft.
- Astronomie und Astrophysik.
Wie sich Workloads verändert haben
Viele der aktuellen Anwendungsfälle für KI sind auf Netzwerkrand- oder Rechenzentrums-Bereitstellungen wie z. B. intelligente Verkehrssysteme beschränkt, die sich für die KI-Objekterkennung stark auf intelligente Kameras stützen. Die KI-Modellen zugrunde liegenden Algorithmen sind weit komplexer und bieten mehr Potenzial, sind aber auch mit höheren Rechenanforderungen für wissenschaftliche Entdeckung, Innovation und industrielle sowie geschäftliche Anwendungen verbunden. Die Herausforderung besteht darin, die KI-Inferenz auf HPC-Levels zu skalieren oder von der Erkennung von Verkehrsmustern an einer Kreuzung zur Sequenzierung eines Genoms in Stunden statt Wochen zu gelangen.
Zum Glück bietet die HPC-Community jahrzehntelange Erfahrung mit den Herausforderungen von KI im großen Maßstab, wie z. B. die Notwendigkeit von mehr Parallelität, schnellerer I/O für massive Datenmengen und effizienterer Navigation in verteilten Rechenumgebungen. HPC-Funktionen wie diese können KI beschleunigen helfen, um nützliche Ergebnisse zu erzielen, wie z. B. die Anwendung von Heuristik auf Expertenebene per Deep Learning-Inferenz auf Tausende von Transaktionen, Workloads oder Simulationen pro Sekunde.
Physics-Informed Neural Networks (PINNs)
Ein Beispiel für einen KI-erweiterten HPC-Anwendungsfall ist die Integration der Gesetze der Physik in Inferenzmodelle, um realistischere Ergebnisse zu generieren. In diesen Anwendungen müssen neuronale Netzwerke bekannte Gesetze wie die Erhaltung von Masse, Energie und Geschwindigkeit befolgen. Sie werden dann als Physics-Informed Neural Networks oder PINNs bezeichnet. PINNs können zur Erweiterung oder Ersetzung von HPC-Modellierung und Simulation für Anwendungsfälle wie Fluidstromanalyse, Molekulardynamik, Tragflächen- und Düsentriebwerkskonstruktion und Hochenergiephysik eingesetzt werden.
Forscher am CERN nutzten zum Beispiel Intel® Deep Learning Boost (Intel® DL Boost) auf skalierbaren Intel® Xeon® Prozessoren, um Monte-Carlo-Simulationen für Teilchenkollisionen zu ersetzen. INT8-Quantisierung geringer Präzision unterstützte die Bereitstellung einer bis zu 68.000-mal schnelleren Verarbeitung als bei Softwaresimulationen,2 wobei auch eine leichte Genauigkeitsverbesserung zu verzeichnen war.
KI in HPC wird durch Datenwachstum angetrieben
Der Haupttreiber für HPC- und KI-Workloads ist das beständige Wachstum bei Daten sowie die Notwendigkeit, mit der Analyse auf HPC-Skala Schritt zu halten. KI-Algorithmen werden immer raffinierter und können mit viel mehr Daten umgehen als in den vergangenen Jahren, insbesondere seit der Einführung von Deep Learning-Methoden. Bereiche wie Genomsequenzierung generieren eine unglaubliche Menge an Daten und Einrichtungen wie das Broad Institute of MIT and Harvard erstellten täglich ca. 24 Terabyte neuer Daten.3
KI beschleunigt kritische Workloads, damit die Entdeckung Schritt halten kann. Intel hat beispielsweise mit dem Broad Institute zusammen eine Intel® Select Lösung für das Genomics Analytics Toolkit (GATK) entwickelt, die hardwarebasierte KI-Beschleunigung integriert, um HPC-Workloads für wichtige Genomik-Toolsets zu fördern. Mit der GATK Select Solution konnte das Broad Institute eine 1,75-fache Beschleunigung der Burrow-Wheeler Aligner (BWA) Anwendung und eine 2-fache Beschleunigung der HaplotypeCaller Anwendung erzielen.3
Das San Diego Supercomputer Center (SDSC) beherbergt eines der größten wissenschaftlichen Rechenzentren der Welt und ist als international führend in der Nutzung, Verwaltung, Speicherung und Sicherung von Daten anerkannt. Das KI-orientierte System ermöglicht es Wissenschaftlern, neue Ansätze für beschleunigtes Trainieren und Inferenzieren zu entwickeln. Praxisbeispiel: SDSC baut KI-orientierten Supercomputer „Voyager“ auf.
Herausforderungen der Anwendung von KI beim HPC überwinden
In Bezug auf HPC-Konfigurationen für KI mussten bislang bei der CPU-Architektur Kompromisse zwischen den KI- und den HPC-Anforderungen eingegangen werden. Workloads mit hohem KI-Bedarf verwenden in der Regel zugunsten der Geschwindigkeit weniger Kerne, während HPC-Workloads oft eine höhere Rechenleistung und damit eine hohe Anzahl von Kernen und Bandbreite von Kern zu Kern vorziehen. Dank fortgesetzter Verbesserungen der verschiedenen Generationen bietet Intel Lösungen an wie z. B. in skalierbaren Intel® Xeon® Prozessoren integrierte Beschleunigung.
Die folgenden wichtigen Innovationen sowohl auf der Hardware- wie auf der Software-Ebene erleichtern die Entwicklung und Erstellung von KI-Lösungen:
- Skalierbare Intel® Xeon® Prozessoren bieten die erforderlichen hohen KI-Leistungen mit integrierter KI-Beschleunigung. Intel® AVX-512 mit Intel® DL Boost Vector Nural Network Instructions (VNNI), exklusiv für Intel® Prozessoren vorbehalten, bietet optimierte KI-Leistung für schnelle Erkenntnisse in kürzerer Zeit.
- Vereinfachte Optimierungsbibliotheken mit geringerer Genauigkeit im Intel® oneAPI AI Analytics Toolkit erleichtern die Programmierung für HPC- und KI-Plattformen, während gleichzeitig die Leistung erhöht und Genauigkeitsschwellwerte eingehalten werden.
- Intel® FPGAs für maschinelles Lernen unterstützen hohe Parallelisierung und reduzieren die Zeit bis zum Ergebnis- und Erkenntnisgewinn für HPC- und KI-Workloads.
- Die Gaudi-Plattform von Habana Labs, Intels Rechenzentrumsteam, das sich auf Deep Learning-Prozessortechnik spezialisiert hat, ermöglicht es Datenwissenschaftlern und Ingenieuren für maschinelles Lernen, die Schulung zu beschleunigen und mit nur wenigen Codezeilen neue Modelle zu erstellen oder bestehende zu migrieren, um die Produktivität zu steigern und die Betriebskosten zu senken. Die Habana-Beschleuniger wurden speziell für die Schulung und Inferenz von KI-Modellen in großem Maßstab entwickelt.
- Intel® Select Solutions für HPC-KI-Cluster bieten eine Möglichkeit zur Bereitstellung von KI-Workloads auf konvergenten HPC-Plattformen ohne Bereitstellung von GPUs.
- KI-Entwickler verfeinern ihre Techniken und den Code, um eine effektivere Ausführung auf HPC-Clustern zu ermöglichen. Neue Optimierungen beschleunigen Workloads durchgängig, vom Laden der Daten bis zu Vorverarbeitung, Training und Inferenz.
Komplexität ist ebenfalls eine wichtige Reibungsstelle bei der HPC- und KI-Annahme. Die erforderlichen Skillsets sind sehr domänenspezifisch und Unternehmen müssen talentierte Mitarbeiter anwerben, die in HPC und KI geschult sind, um erfolgreich zu sein. Die Branchenführung von Intel kann den Weg frei machen, weil Intel eng mit sowohl HPC- als auch KI-Communities kooperiert, um Fachwissen und Ideen auszutauschen.
Schlussfolgerung: Künstliche Intelligenz beim HPC
KI wird zunehmend in HPC-Anwendungen integriert. Dabei werden Tempo und Maßstab der KI-Analyse durch neue Technologien und Methoden erhöht, um einen schnelleren Erkenntnisgewinn zu erzielen. Dank dieser Innovationen können Datenwissenschaftler und Forscher mithilfe von KI mehr Daten verarbeiten, realistischere Simulationen erstellen und präzisere Prognosen treffen, und das oft in kürzerer Zeit.