Warum ist HPC wichtig?
High-Performance-Computing (HPC) ist nicht neu. HPC-Workstations und Supercomputer nehmen seit Jahrzehnten eine wichtige Rolle in der akademischen Forschung ein, lösen komplexe Probleme und treiben Entdeckungen und Innovationen voran.
Die Datenmengen haben in den letzten Jahren rasant zugenommen, und viele neue Anwendungen profitieren von der Leistungsfähigkeit des HPC, d. h. von der Möglichkeit, rechenintensive Operationen auf gemeinsam genutzten Ressourcen durchzuführen, um in kürzerer Zeit und zu geringeren Kosten als bei herkömmlichen Berechnungen Ergebnisse zu erzielen. Gleichzeitig sind HPC-Hardware und -Software erschwinglicher und weiter verbreitet geworden.
Wissenschaftlern, Ingenieuren und Forschern wird HPC für eine Reihe von Anwendungsfällen zur Verfügung gestellt, darunter Wettervorhersage, Öl- und Gasexploration, Physik, Quantenmechanik und andere Bereiche der akademischen Forschung und kommerzielle Anwendungen.
Wie funktioniert HPC?
HPC kann zwar auf einem einzelnen Knoten ausgeführt werden, aber seine wahre Leistung entsteht durch die Verbindung mehrerer HPC-Knoten zu einem Cluster oder Supercomputer mit parallelen Datenverarbeitungsfähigkeiten. HPC-Cluster sind in der Lage, Simulationen in extremem Maßstab, KI-Inferencing und Datenanalysen zu berechnen, die auf einem einzelnen System nicht durchführbar wären.
Einige der ersten und bekanntesten Supercomputer wurden von Cray und IBM entwickelt, die heute Partner von Intel® Data Center Builders sind. Aktuelle Supercomputer sind groß angelegte HPC-Cluster, die aus CPUs, Beschleunigern, hochleistungsfähigen Kommunikationsstrukturen und hochentwickeltem Arbeitsspeicher bestehen, die über mehrere Knoten hinweg zusammenarbeiten, um Engpässe zu vermeiden und eine optimale Leistung zu erzielen.
Skalierung der Leistung
HPC-Applikationen nutzen die Vorteile von Hardware- und Software-Architekturen, die die Berechnungen auf mehrere Ressourcen verteilen. In der Regel wird dazu ein einzelner Server verwendet. Die parallele Verarbeitung in einem einzigen System kann zu erheblichen Leistungssteigerungen führen, aber die Anwendungen können nur innerhalb der Grenzen der Fähigkeiten dieses Systems skaliert werden.
Skalierung der Leistung
Sind mehrere Systeme so konfiguriert, dass sie als ein System agieren, ermöglichen die daraus resultierenden HPC-Cluster den Anwendungen eine Leistungssteigerung, indem sie die Berechnungen auf mehr Knoten parallel verteilen.
Vorteile von HPC
HPC setzt sich im akademischen Bereich und in Unternehmen immer mehr durch, da die Nachfrage nach der Verarbeitung umfangreicher Datensätze und fortschrittlicher Anwendungen steigt. Mit dem Aufkommen hochskalierbarer Hochleistungsprozessoren und Hochgeschwindigkeitsspeicher, -datenspeicher und -netzwerke sind HPC-Technologien leichter zugänglich geworden. Wissenschaftler und Ingenieure können HPC-Workloads auf ihrer eigenen Infrastruktur ausführen, oder sie können mit Cloud-basierten Ressourcen, die keine großen Investitionen erfordern, skalieren.
HPC-Anwendungsfälle
Forschungslabors und Unternehmen verlassen sich heute auf HPC für die Simulation und Modellierung verschiedener Anwendungen, darunter autonomes Fahren, Produktdesign und Fertigung, Wettervorhersage, seismische Datenanalyse und Energieerzeugung. HPC-Systeme ermöglichen auch Fortschritte in der Präzisionsmedizin, der Bewertung von Finanzrisiken, der Betrugserkennung, der numerischen Strömungsmechanik und anderen Bereichen.
HPC-Komponenten
Die produktivsten High-Performance-Computing-Systeme bestehen aus einer Kombination von fortschrittlicher HPC-Hardware und Softwareprodukten. Für HPC ausgelegte Hardware umfasst in der Regel Hochleistungs-CPUs, Fabric, Speicher und Netzwerkkomponenten sowie Beschleuniger für spezielle HPC-Workloads.
Für HPC-Plattformen ausgelegte Software, Bibliotheken, optimierte Frameworks für Big Data und Deep Learning sowie andere Software-Tools helfen dabei, das Design und die Effizienz von HPC-Clustern zu verbessern.
HPC und Intel
Intel bietet ein umfassendes Technologieportfolio, das Entwicklern hilft, das volle Potenzial des High Performance Computing auszuschöpfen.
Intel® Hardware bietet eine solide Grundlage für flexible, skalierbare HPC-Lösungen. Außerdem bietet Intel eine Reihe von Software- und Entwickler-Tools zur Unterstützung von Leistungsoptimierungen, die die Vorteile von Intel® Prozessoren, Beschleunigern und anderen leistungsstarken Komponenten nutzen.
Mit dieser breiten Palette an Produkten und Technologien bietet Intel über die Intel® HPC Platform Specification einen standardbasierten Ansatz für viele gängige HPC-Workloads.
HPC-Prozessoren und -Beschleuniger
Die Palette der HPC-Prozessoren und -Beschleuniger von Intel, einschließlich der skalierbaren Intel® Xeon® Prozessoren und FPGAs, unterstützt HPC-Workloads in Konfigurationen von Workstations bis zu Supercomputern.
Software und Tools für HPC
Intel bietet die Software und Tools, die Entwickler benötigen, um die Programmierung von HPC-Anwendungen zu optimieren und zu beschleunigen, darunter KI, Analyse und Big Data Software.
HPC-Daten- und -Arbeitsspeicher
Die Entwicklung der HPC-Daten- und -Arbeitsspeicheranforderungen hat den Bedarf an einer Reduzierung der Latenzzeiten erhöht. Intel® HPC-Daten- und Arbeitsspeicherlösungen sind für nichtflüchtige Speichertechnologien (NVM), HPC-Software-Ökosysteme und andere HPC-Architekturkomponenten optimiert.
Intel® Optane™ SSDs
Intel® Optane™ Festkörperlaufwerke (Intel® Optane™ SSDs) bieten die nötige Speicherflexibilität, Stabilität und Effizienz, um Engpässe in HPC-Rechenzentren zu vermeiden und eine bessere Leistung zu ermöglichen.
DAOS
Distributed Asynchronous Object Storage (DAOS) bietet mit persistentem Intel® Optane™ Speichermedium erhebliche Verbesserungen beim Datenspeicher-I/O zur beschleunigten Durchführung von HPC-, KI-, Analyse- und Cloud-Projekten.
Persistenter Intel® Optane™ Speicher (PMem)
PMem ist eine einzigartige Kombination aus erschwinglicher, größerer Kapazität und Unterstützung für Datenpersistenz, um verschiedene Betriebsmodi zu unterstützen und sich an die unterschiedlichen Anforderungen von HPC-Workloads anzupassen.
HPC in der Cloud
Die heutigen HPC-Cloud-Services können die komplexesten und anspruchsvollsten Arbeitslasten mit viel der gleichen Intel® Technik unterstützen, die auch im Rechenzentrum vor Ort verfügbar ist. Die Durchsatzleistung für HPC kann in der Cloud beschleunigt werden, wo die Verfügbarkeit von Rechenressourcen auf Abruf dafür sorgt, dass Aufträge vorankommen, anstatt in einer Warteschlange zu verharren. Der zusätzliche Vorteil von HPC in der Cloud ist die Möglichkeit, die Vorteile der Ausführung Ihrer Arbeitslasten auf HPC-Hardware zu bewerten, die vom Cloud-Service-Provider (CSP) vorausgewählt und konfiguriert wurde. Damit können Sie herausfinden, was bei Ihnen funktioniert und welche Anpassungen oder Optimierungen Sie eventuell benötigen.
Forscher und Entwickler können HPC-Workloads in einer Kombination aus Vor-Ort- und HPC-Cloud-Umgebungen einsetzen, die von innovativen, auf der Intel® Architektur basierenden Plattformen bei großen CSPs weltweit unterstützt werden. Intel® Technologiepartner können Unternehmen bei der Auswahl der besten HPC-Cloud-Instanzen mit fachkundiger Beratung zur Seite stehen.
HPC-Fortschritte voranbringen
Mit den neuesten Fortschritten im Computing- und Software-Bereich macht HPC einen gewaltigen Schritt vorwärts. Intel arbeitet eng mit OEMs und dem breiteren HPC-Technologieumfeld zusammen, um die Hardwareleistung zu optimieren und HPC mit KI und Analytik zu integrieren.
Intel entwickelt neue HPC-Technik, -Prozessoren und -Materialien, die dazu beitragen, das Quantencomputing aus dem Labor in den kommerziellen Sektor zu bringen.
Die neuesten Supercomputer auf Basis des skalierbaren Intel® Xeon® Prozessors sind auf dem besten Weg, die anspruchsvollsten wissenschaftlichen Herausforderungen der Welt zu meistern.
HPC und KI
Das kombinierte Potenzial aus HPC sowie Machine und Deep Learning für unterschiedliche Anwendungen – von Linguistik über Genomsequenzierung bis zu globalen Klimamodellen – ist vielversprechend. Intel treibt HPC und KI voran, indem es mit Technologieumfeld-Partnern zusammenarbeitet, um Referenzarchitekturen und Lösungen zu entwickeln, die speziell für diese wichtigen Lösungen konzipiert sind.
Exascale Computing
Wissenschaftler und Ingenieure setzen HPC-Technologien ein, um immer anspruchsvollere Probleme zu lösen. Dazu bauen sie leistungsstarke Supercomputer, die im Exascale-Bereich arbeiten. Der Aurora-Supercomputer am Argonne National Laboratory soll beispielsweise völlig neue Fähigkeiten zur Integration von Datenanalyse, KI und Simulation für fortschrittliche 3D-Modellierung bieten.
Weitere zukunftsweisende HPC-Projekte sind die Sequenzierung von Genomikdaten am Broad Institute des MIT und in Harvard, fortschrittliche Forschung mit einem der weltweit leistungsstärksten Supercomputer im Texas Advanced Computing Center (TACC) und Teilchenbeschleunigersimulationen auf der Grundlage von Daten aus dem Large Hadron Collider der Europäischen Organisation für Kernforschung (CERN).
Intel unterstützt leistungsstarke, skalierbare HPC
High Performance Computing bietet Forschern, Entwicklern und Ingenieuren in Hochschulen, Behörden und der Industrie ein enormes Potenzial.
Die neuesten Fortschritte in der Computer- und Softwaretechnik ermöglichen immer neue Leistungen für HPC. Es kann jedoch eine Herausforderung sein, die optimalen Hardware- und Softwarekonfigurationen zu wählen, die leistungsstarke, skalierbare HPC-Lösungen liefern.
Intel kooperiert weiterhin eng mit HPC-Lösungsanbietern, um die Hardware-Leistung zu optimieren und HPC und KI mit Analytik zu verbinden. Die HPC-Leistung auf der Intel® Architektur kann Innovationen vorantreiben und immer komplexere Probleme lösen und den Weg für eine Zukunft mit Exascale- und Zettascale-Computing ebnen.