Überblick über Supercomputing und Exascale-Computing
Supercomputing hilft bei der Lösung von Problemen in Wissenschaft, Technik und Unternehmen, um unsere Welt zu einem besseren Ort machen: von individualisierten Behandlungen bei Krebserkrankungen über Vorhersagen zum Klimawandel bis hin zur Chemie des Big Bangs. Zur Bewältigung dieser komplexen und datenintensiven Probleme benötigt man enorm viel Rechenleistung. Da zusammen mit den Datensätzen auch der Bedarf nach Geschwindigkeit gewachsen ist, bestehen HPC-Umgebungen heute nicht mehr aus Supercomputern, sondern aus Exascale-Computern wie dem Aurora Exascale-Computer, den das Argonne National Lab 2022 in Betrieb nehmen wird. Nationale Labore wie Argonne, Oak Ridge und Lawrence Livermore stellen HPC-Systeme für Industrie und Hochschulen bereit, was umfangreichen intellektuellen und wirtschaftlichen Nutzen aus öffentlichen Investitionen mit sich bringt.
Was ist Supercomputing?
Supercomputing ist eine Form von HPC, bei der enorm große Datenbanken und/oder Berechnungen mit hoher Geschwindigkeit verwendet werden. Hyperion Research klassifiziert Supercomputer als jedes System, das mehr als 500.000 USD kostet. Supercomputer umfassen Hunderte bis Tausende von Knoten, die Workstation-Computern ähneln und parallel arbeiten. Jeder Knoten verfügt über zahlreiche Prozessoren oder Kerne, die Anweisungen ausführen. Um sicherzustellen, dass alle synchron arbeiten, kommunizieren die Computer über ein Netzwerk. Heute lösen die schnellsten Supercomputer Probleme im Petascale-Bereich – 1015 Berechnungen pro Sekunde (oder besser: Gleitkommaoperationen pro Sekunde); das wird sich jedoch mit der Einführung von Exascale-Computern, die 1000-mal schneller sind, ändern. Die aktuell schnellsten Supercomputer der Welt finden Sie hier in den TOP500.
Historisch wurden per Supercomputing Probleme in den Bereichen Modellierung und Simulation gelöst. Beispiele dafür sind das Untersuchen von kollidierenden Galaxien oder subatomaren Merkmalen von Atomen bzw. auch die Gestaltung von Shampoo-Flaschen, die beim Herunterfallen nicht zerbrechen. Automobilhersteller nutzen Supercomputing, um den Designlebenszyklus eines Autos von fünf auf zwei zu verringern, wodurch sie Milliarden von Dollar und Jahre an Zeit sparen, da die Anzahl der benötigten Windkanalsimulationen reduziert wird. Supercomputing beschäftigt sich jedoch auch mit neuen Fragen und deckt sogar neue Probleme auf, die es zu lösen gilt.
Was versteht man unter Exascale-Computing?
Exascale-Computer können mindestens 1018 Gleitkommaoperationen pro Sekunde ausführen, was einem Exaflop entspricht. Um eine Idee davon zu erhalten, wie unglaublich schnell der Aurora Exascale-Computer sein wird, stellen Sie sich alle der etwa acht Milliarden Menschen auf der Erde mit einem Rechner vor, die zwei Zahlen multiplizieren– sagen wir 1056,26 × 784,98 – und das alle 10 Sekunden. Bei dieser Geschwindigkeit würden wir 40 Jahre brauchen, um die Berechnungen abzuschließen, die ein Exascale-Computer in einer Sekunde erledigt. Das sind eine Milliarde Milliarden Berechnungen pro Sekunde – oder eine Trillion für diejenigen, die gerne in vielen Nullen zu denken.
Trends beim Supercomputing
Eine Methode, mit der Supercomputer für neue Entdeckungen sorgen, ist durch die Verarbeitung und Analyse von immer massiveren und wertvolleren Datensätzen. So ist es logisch, dass es bei den wichtigsten Trends im Supercomputing heute um die Bewältigung dieser immensen Datenmengen geht – durch Einbindung von künstlicher Intelligenz, Big-Data-Analysen und Edge-Computing.
Künstliche Intelligenz. KI-Techniken ermöglichen es Supercomputern, Inferenzen durchzuführen, indem sie immer größere Datensätze analysieren. KI setzt jedoch auch ausreichend Verarbeitungsleistung für die Analyse all dieser Daten voraus; das geht mit Exascale-Computing viel schneller. Wissenschaftler können Fragen stellen und Antworten erhalten, die zuvor undenkbar waren.
Big-Data-Analysen. Big Data ist zu einem primären Treiber neuer und erweiterter HPC-Installationen geworden. Aktuell basieren die meisten HPC-Big Data-Workloads auf herkömmlicher Simulation und Modellierung. In Zukunft werden die technischen und geschäftlichen Kräfte, die Big Data prägen, jedoch neue Formen von HPC-Konfigurationen hervorbringen, um Erkenntnisse aus unvorstellbar großen Datensätze zu gewinnen.
Edge-Computing. Edge-Computing ist zu einer produktiven Quelle neuer Datensätze geworden. Diese Datenmengen stammen sowohl von einzelnen Instrumenten, die immense Datenmengen erfassen, als auch den Milliarden von vernetzten Geräten, die auf die ganze Welt verteilt sind. So generieren zum Beispiel das LIDAR-Teleskop in den Anden sowie das Square Kilometer Array Radioteleskop in Westaustralien und Südafrika riesige Mengen an Informationen. Das tun jedoch auch Smart Cities, die zahllose Sensoren und Kameras für Verkehrssteuerung und öffentliche Sicherheit verwenden. Alle diesen Daten verursachen Probleme, die nur mit HPC gelöst werden können.
Herausforderungen beim Supercomputing
Die Herausforderungen beim Supercomputing, insbesondere bei der Einrichtung eines Exascale-Computers wie Aurora, verteilen sich auf drei Hauptbereiche: Energie, Skalierung und Heterogenität.
Power. Der schnellste Petascale-Computer der Welt verbraucht 28,3 Megawatt.1 Zwar hat noch kein Unternehmen, das derzeit an einem Exascale-Computer arbeitet, genaue Zahlen veröffentlicht; Exascale-Computer werden im Betrieb jedoch 30 bis 50 Megawatt benötigen. Zum Vergleich: 50 Megawatt würden ausreichen, um die Wohngebäude einer Stadt mit 50.000 bis 70.000 Einwohnern mit Strom zu versorgen. Über ein Jahr kostet ein Megawatt Strom etwa eine Million Dollar, weswegen die Reduzierung des Stromverbrauchs von Supercomputern eine entscheidende Herausforderung bleibt. Prozessoren auf Basis innovativer Mikroarchitekturen sorgen für skalierbare Leistung und Energieeffizienz.
Skalierung. In den letzten 30 Jahren haben sich Supercomputer von einem einzigen Prozessor mit einem Thread über viele Kerne und Hyperthreading zu Tausenden von Knoten weiterentwickelt, die alle zusammenarbeiten. Heute müssen Entwickler, die eine Anwendung für Exascale-Computing schreiben, das Problem in verschiedene Stücke aufteilen, um die parallele Natur des Computers voll nutzen und sicherstellen zu können, dass die Threads synchron bleiben.
Heterogenität. Früher haben Entwickler Code für nur eine Komponente in einem Computer geschrieben: einen Kernprozessor. Die Verarbeitung von HPC- und KI-Workloads erfordert jedoch Tausende von Verarbeitungsknoten mit 10-mal so vielen Prozessorkernen. Diverse Architekturen kombinieren CPUs und GPUs – und inzwischen auch FPGAs und andere Arten von Beschleunigern. So können Entwickler entscheiden, welche Elemente für die einzelnen Berechnungsarten, die ausgeführt werden sollen, am besten geeignet sind. Es reicht nicht, dass Entwickler Code nur einmal verfassen: Jeder Prozessortyp erfordert einen eigenen Code, der auch mit den anderen funktionieren muss. Doch nicht nur Algorithmen und Software werden immer komplexer, sondern auch die Integration proprietärer Programmiermodelle, was zu ungewollten Festlegungen auf einzelne Anbieter führt. Das branchenübergreifend einheitliche offene standardbasierte Programmiermodell oneAPI ist eine Brancheninitiative, die durch eine einheitliche Entwicklungserfahrung für höhere Anwendungsperformance, mehr Produktivität und zusätzliche Innovationen sorgen soll.
Der Aurora Supercomputer
In Zusammenarbeit mit dem Argonne National Laboratory arbeitet Intel an der Entwicklung eines der ersten US-amerikanischen Exascale-Computer. Der Aurora Supercomputer wird bahnbrechende Wissenschaft, Innovationen und Entdeckungen ermöglichen, damit sich einige der größten Herausforderungen der Welt bewältigen lassen.
Aurora ist ein Drei-Säulen-Computer, d. h. er dient dazu, Modellierung und Simulation, KI und maschinelles Lernen sowie Big Data und Analysen zu unterstützen, damit diese effizient zusammenarbeiten können. Dies wird eine enorme Menge an Speicher in einer leistungsstarken Fabric erfordern. Aurora wird außerdem die leistungsfähige und universell geeignete Xe-basierte GPU nutzen, die für HPC- und KI-Workloads optimiert wurde.
Aurora wird sich nicht auf die standardmäßigen Modellierungs- und Simulationsaufgaben, die Supercomputer in der Vergangenheit übernommen haben, beschränken, sondern auch perfekt dazu geeignet sein, KI-Probleme zu lösen und Big Data-Analysen durchzuführen.“
Argonne führt ein Early Science Program (ESP) durch, um Forschungsteams Zeit und Ressourcen für die Präproduktion zu geben, damit sie Schlüsselanwendungen ausführen können, sobald sie auf den Aurora Exascale-Computer umsteigen. Das ESP umfasst derzeit sowohl Modellierungs- und Simulationsprogramme als auch KI-Programme, die in einem Exzellenzzentrum kooperieren.
Darüber hinaus unterstützt das Department of Energy (DOE) das Exascale Computing Project (ECP) mit dem Ziel, die Bereitstellung eines leistungsfähigen Exascale-Computing-Ökosystems zu beschleunigen, das Anwendungen, Software, Hardware, Architektur und Personalentwicklung umfasst. Das ECP zielt darauf ab, kritische Herausforderungen in 24 Anwendungsbereichen zu bewältigen, die für das DOE von kritischer Bedeutung sind, einschließlich Grundlagenforschung, angewandte Energie und nationale Sicherheit.
Exascale-Anwendungsfälle
Exascale-Computing löst eine Reihe von Problemen in Wissenschaft, Technik und Unternehmen. So kann HPC dabei helfen, drei wichtige Fragen des COVID-19-Puzzles zu beantworten und Daten aus allen drei Quellen kombinieren, die als Grundlage für Modellierung und Simulation dienen.
Analyse von Testdaten. Tag für Tag werden auf der ganzen Welt Millionen von Menschen auf COVID-19 getestet. Durch Analyse dieser Edge-Daten können Wissenschaftler die Verbreitung des Virus besser verstehen – z. B. die Übertragung in der Luft – und wie sich diese verlangsamen lässt.
Verstehen der klinischen Ursachen der Krankheit. Untersuchungen der enormen Mengen an komplexen Patientendaten, die von Krankenhäusern bereitgestellt werden – ordnungsgemäß anonymisiert, damit Datenschutzanforderungen eingehalten werden –, können dazu beitragen, klinische Ursachen zu ermitteln und neue Erkenntnisse für Diagnose und Behandlung zu gewinnen.
Beispielsweise erforschen Supercomputer mit Intel® Technik die atomare Struktur des COVID-19-Virus, untersuchen seine Verbreitung und Eindämmung über einen „digitalen Zwilling“ der US-Bevölkerung und identifizieren Ziele für neue medikamentöse Behandlungen.
Wirkstoffentdeckung. Pharmaunternehmen arbeiten an der Entwicklung von Behandlungen, einschließlich Impfungen. Es erfordert massive Rechenleistung, um zu simulieren, wie sich der COVID-19-Virus vermehrt und an Zellen bindet, und die Wirksamkeit eines Injizierens verschiedener chemischer Substanzen und antiviraler Mittel zu beurteilen.
So arbeitet das Texas Advanced Computing Center mit Forschern am Amaro Lab der University of California San Diego zusammen, um Modelle des COVID-19-Virus und andere Systeme zu entwickeln, mit denen sich Therapeutika besser vorbereiten und entwickeln lassen.
Hier sind einige weitere Anwendungsfälle, die belegen, wie Forscher HPC einsetzen, um unser aller Leben zu verbessern.
Behörden/öffentliche Verwaltung
Gesundheitswesen
Life-Sciences
Genetik
Luft- und Raumfahrt
Die Zukunft des Supercomputing
Die Zukunft des Supercomputing umfasst verschiedene Arten von Computertechnik und einen Fokus auf dem Einsatz von KI, um das Potenzial der wachsenden Datenmengen richtig zu nutzen.
Neue Formen der Computertechnik
Obwohl Supercomputer zunächst nur CPUs nutzten, verwenden sie nun auch leistungsstarke GPUs, FPGAs und andere Beschleuniger, die Funktionen implementieren, damit sich Operationen schneller oder mit höherer Energieeffizienz ausführen lassen. GPUs beschleunigen CPUs für wissenschaftliche und technische Anwendungen, indem sie bestimmte rechenintensive und zeitraubende Aufgaben übernehmen. FPGAs können je nach Bedarf für verschiedene Anforderungen konfiguriert werden, um für enorme Leistungssteigerungen zu sorgen. Außerdem können der neue Habana Labs KI-Trainingsprozessor und der KI-Inferenzprozessor neue KI-Workloads beschleunigen. Das ist jedoch nur der Anfang. Während Forscher Anwendungen zerlegen, werden andere Technologien weiterhin raschen Fortschritt erleben.
Neuromorphe Computertechnik bietet außergewöhnliche Eigenschaften bei der Rechenleistung pro verbrauchter Energieeinheit. Mit Hardware ahmt neuromorphe Computertechnik die Art und Weise nach, wie Neuronen organisiert sind, kommunizieren und im Gehirn lernen. Neuromorphe Computertechnik wird KI dabei helfen, im Rahmen der Automatisierung normaler menschlicher Aktivitäten neue Situationen und Abstraktionen zu bewältigen.
Quanten-Computertechnik bietet außergewöhnliches Potenzial zur Reduzierung der Zeit, die zur Lösung von Problemen benötigt wird. Quanten-Computertechnik schafft neue Grundlagen für die binäre On-off-Kodierung von Daten, die in der heutigen Computertechnik fundamental ist, und ersetzt Bits durch Qubits, welche verschiedene Zustände gleichzeitig aufweisen können. Das könnte in der Computertechnik für ein beispielloses Maß an massiver Parallelverarbeitung sorgen.
Software
Indem Forscher zunehmend KI in HPC-Anwendungen einbinden, schaffen sie mehr Erkenntnisse und Ideen dazu, wie sie diese nutzen könnten. KI wird Modellierung und Simulation in einem Maß fördern, dass sich extrem komplexe Probleme wie die Klimamodellierung bewältigen lassen. Außerdem kann KI Anomalien in massiven Datenmengen erkennen und Wissenschaftlern Hinweise darauf geben, was sie erforschen können. Moderne Bibliotheken und Tools, wie die in den Intel® oneAPI Toolkits, vereinfachen die Programmierung und helfen Entwicklern, Effizienz und Innovationskraft zu erhöhen.
Einzigartiges Portfolio und Ökosystem für bahnbrechende Forschung und Entdeckungen
Supercomputer – und jetzt Exascale-Computer – geben Forschern leistungsstarke Tools an die Hand, mit denen sie bisher unvorstellbare Durchbrüche erzielen können, um unsere Gesellschaft voranzubringen. Das Erzielen überragender Leistung bei verschiedenen realen HPC- und KI-Workloads – ob in den Bereichen Fertigung, Biowissenschaften, Energie oder Finanzdienstleistungen – setzt einen Partner und eine Technik voraus, die sich an geänderte Anforderungen anpassen können. Dadurch sowie mit Unterstützung durch ein breites Supercomputing-Ökosystem wird sich das Potenzial von Daten in Behörden, Hochschulen und Unternehmen voll erschließen lassen.
Intel® Supercomputing Technik
Intel verfügt über die Tools und Technik, die Lösungen für Probleme in den Bereichen intensive Wissenschaft, Technik und Unternehmen, welche sehr schnelle Berechnungen oder große Datenbanken erfordern, unterstützen.
Intel® HPC Technik | |
---|---|
Skalierbare Intel® Xeon® Prozessoren der 3. Generation | Skalierbare Intel® Xeon® Prozessoren der 3. Generation bieten durch eine größere Speicherbandbreite, eine neue Kernarchitektur, mehr Prozessorkerne und schnellere I/O-Power zusätzliche Leistung. |
Intel® Xeon® Platinum 9200 Prozessor | Intel® Xeon® Platinum 9200 Prozessoren bieten mit 12 DDR4-Kanälen pro CPU die höchste verfügbare DDR-Speicherbandbreite.2 |
Intel® FPGAs | Intel® FPGAs helfen Systemarchitekten dabei, Leistungs-, Energie- und Preisbeschränkungen einzuhalten und gleichzeitig eine schnelle Markteinführung zu erreichen. Durch gemeinsame IP-Nutzung mit den neuesten strukturierten Intel® ASICs bieten sie Vorteile als Ausgangspunkt für Designs, die möglicherweise zu einer strukturierten ASIC migriert werden. |
Intel® eASIC™ Geräte | Diese strukturierten ASICs helfen Systemarchitekten dabei, ihre nicht wiederkehrenden technischen Kosten zu reduzieren und Produkte schneller auf den Markt zu bringen. |
Intel® AVX-512 | Diese Erweiterungen bieten integrierte Beschleunigung für die anspruchsvollsten Rechenaufgaben mit ultrabreiten 512-Bit-Vektor-Operationsfunktionen, doppelt so viel wie bei herkömmlichem AVX2. |
Persistenter Intel® Optane™ Speicher, Intel® Optane SSDs, DAOS Intel® Optane™ Technik | Persistenter Intel® Optane™ Speicher bietet bis zu 3-mal mehr maximale Kapazität pro Knoten für besser skalierbaren Arbeitsspeicher näher an der CPU. Intel® Optane™ SSDs beschleunigen den Zugriff auf kritische Daten und helfen dabei, Datenspeicher kosteneffektiv zu skalieren. Die Grundlage des Intel® Exascale Speicher-Stacks (Distributed Asynchronous Object Storage, DAOS) ist ein Open-Source-basierter, softwarebasierter, horizontal skalierbarer Objektspeicher, der Speichercontainer mit hoher Bandbreite, geringer Latenz und hoher I/O-Leistung3 für Workflows bietet, die Simulation, Datenanalyse und KI kombinieren. |
Optimierter Software-Stack für HPC | Intel® Parallel Studio Suite, Intel® VTune™, Compiler für Fortran und C++, Intel® Math Kernel Library und Intel® VTune™ Amplifier ermöglichen die Entwicklung, Optimierung und Orchestrierung hochparalleler Workloads in Multi-Core- und Multi-Node-Systemen, wodurch die Bereitstellung von HPC-Systemen erheblich vereinfacht wird. |
Intel® oneAPI Toolkits | Die Intel® oneAPI Toolkits bieten ein einheitliches Programmiermodell, das die Entwicklung in verschiedenen Architekturen, einschließlich CPU-, GPU- und FPGA-Produkten, spürbar erleichtert. |
Intel® Select Lösungen | Diese vordefinierten Workload-optimierten Lösungen sind dafür konzipiert, die Herausforderungen bei der Infrastrukturbewertung und -bereitstellung zu minimieren. Lösungen werden von OEMs/ODMs validiert, von ISVs zertifiziert und von Intel verifiziert. Dazu gehören die Intel® Select Lösungen für Simulation und Modellierung und die Intel® Select Lösungen für Genomanalysen (V2). |