Optimierte High Performance Computing(HPC)-Architekturen und -Anwendungen erstellen

Neue Technologien und Softwareentwicklungstools entfesseln das Potenzial des gesamten Spektrums an HPC-Architekturen und Rechnermodellen für Benutzer, Systembauer und Softwareentwickler.

Hauptkomponenten eines HPC-Systems

  • Die Planung Ihres HPC-Systems kann eine Kombination Parallel-Computing-, Cluster-Computing- und Grid/Distributed-Computing-Strategien umfassen.

  • Ein Hybrid-Cloud-Ansatz, der On-Premise-Infrastruktur mit öffentlichen Cloud-Ressourcen verbindet, stellt bei Bedarf zusätzliche Ressourcen bereit und verringert dadurch das Risiko nicht wahrgenommener Chancen.

  • Intel® HPC-Technik umfasst Prozessoren, Arbeitsspeicher, Hochleistungsnetzwerke von Intel® sowie Software und sorgen für ein solides Fundament für leistungsstarke und äußerst skalierbare Systeme.

  • Die offene, standardbasierte, architekturübergreifende OneAPI-Programmierung unterstützt HPC-Anwendungen, die auf verschiedenen heterogenen Architekturarten und verteilten Rechenmodellen optimal ausgeführt werden.

  • Intel® Bibliotheken und Tools helfen Kunden dabei, durch effiziente Nutzung von Code und Optimierungen das Beste aus unseren Systemen herauszuholen.

author-image

Von

In der beschleunigten Geschäftswelt von heute ist die Grundlage für eine erfolgreiche Einführung von HPC-Technik eine gut definierte HPC-Architektur. Je nachdem, welche Aufgaben und Computing-Ziele in Ihrem Unternehmen vorherrschen, stehen Ihnen unterschiedliche HPC-Systemdesigns und zugehörige Ressourcen zur Verfügung, um Produktivitätszuwächse und skalierbare Leistung zu erzielen.

Die Planung eines HPC-Systems

Eine HPC-Architektur nimmt je nach Ihren Anforderungen viele Formen an. Organisationen können für das Design von HPC-Systemen verschiedene Möglichkeiten wählen.

Parallelverarbeitung über mehrere Architekturen

Dank der HPC-Parallelverarbeitung können HPC-Cluster umfangreiche Workloads ausführen und in separate Rechenaufgaben unterteilen, die gleichzeitig ausgeführt werden.

Diese Systeme können für die Scale-up- oder Scale-out-Strategie ausgelegt sein. Bei Scale-up-Designs werden Aufgaben innerhalb eines einzelnen Systems so unterteilt, dass einzelne Kerne diese ausführen und somit den Server optimal ausnutzen können. Im Gegensatz dazu wird bei Scale-out-Designs dieselbe Aufgabe in handliche Teile zerlegt und auf mehrere Server oder Rechner verteilt, sodass sie parallel abgearbeitet werden können.

Da intensive Workloads, wie etwa Simulationen, Modellierungen und fortgeschrittene Analysen, immer häufiger an der Tagesordnung sind, werden HPC-Systeme so ausgelegt, dass sie zusätzlich zu CPUs Beschleuniger integrieren können. Diese Beschleuniger führen zu einem breiteren, heterogeneren Spektrum an möglichen Konfigurationen, die Entwickler unterstützen müssen.

Entwickler können die architekturübergreifende oneAPI-Programmierung zur Erstellung einer einzigen Codebasis nutzen, die in CPU-, GPU- und FPGA-Architekturen verwendet werden kann und eine produktivere und leistungsstärkere Entwicklung ermöglicht. oneAPI kann die HPC-Innovation beschleunigen, indem durch proprietäre Programmiermodelle auferlegte Beschränkungen aufgehoben, die Implementierung neuer Hardware erleichtert und die Codewartung reduziert werden. oneAPI und Intel® oneAPI-Toolkits unterstützen vorhandene offene Standards und Sprachen, die HPC-Entwickler benötigen, u. a. C++, SYCL, Fortran, OpenMP, MPI und Python. Informieren Sie sich näher über oneAPI und Intel® oneAPI-Toolkits.

Cluster-Computing

High Performance Computing-Cluster verknüpfen mehrere Computer oder Knoten über ein lokales Netzwerk (LAN). Diese miteinander verbundenen Knoten fungieren als einziger Computer mit extrem hoher Rechenleistung. HPC-Cluster sind speziell dafür konzipiert, ein Problem oder eine komplexe Rechenaufgabe knotenübergreifend in einem System zu lösen. HPC-Cluster haben eine definierte Netzwerk-Topologie und bieten Organisationen die Voraussetzung, komplexe Berechnungen mit kompromisslos hoher Verarbeitungsgeschwindigkeit durchzuführen.

Grid-Computing und verteilte Verarbeitung

HPC-Grid-Computing und HPC-Distributed-Computing sind Synonyme und bezeichnen dieselbe Art von Computerarchitektur. Bei diesem Ansatz sind mehrere Computer über ein Netzwerk verbunden und haben ein gemeinsames Ziel, zum Beispiel die Lösung eines komplexen Problems oder die Durchführung einer umfangreichen Rechenaufgabe. Dieses Konzept eignet sich ideal für Aufgaben, die sich in separate Happen aufteilen und über das Grid verteilen lassen. Jeder Knoten innerhalb des Systems kann Aufgaben eigenständig ausführen, ohne mit den anderen Knoten zu kommunizieren.

HPC-Cloud-Infrastruktur

In der Vergangenheit waren HPC-Systeme auf die Kapazität und das Design der On-Premises-Infrastruktur beschränkt. Heute erweitert die Cloud lokale Kapazitäten um zusätzliche Ressourcen.

Die neuesten Cloud-Management-Plattformen ermöglichen einen Hybrid-Cloud-Ansatz, der die On-Premises-Infrastruktur mit Public-Cloud-Diensten zusammenführt, sodass sich Aufgaben nahtlos über alle verfügbaren Ressourcen hinweg ausführen lassen. Dadurch ist eine größere Flexibilität bei der Bereitstellung von HPC-Systemen und der Geschwindigkeit der Skalierung sowie eine Optimierung der Gesamtbetriebskosten möglich.

In der Regel bietet ein On-Premises-HPC-System geringere Gesamtbetriebskosten als ein gleichwertiges HPC-System, das rund um die Uhr in der Cloud angesiedelt ist. Eine On-Premises-Lösung, die für Spitzenkapazität ausgelegt ist, wird jedoch nur dann zur Gänze genutzt, wenn diese Spitzenkapazität erreicht wird. Die meiste Zeit über ist die On-Premises-Lösung wahrscheinlich nicht ausgelastet, was dazu führt, dass Ressourcen ungenutzt bleiben. Eine Aufgabe, die wegen mangelnder Kapazitäten nicht verarbeitet werden kann, führt jedoch möglicherweise zu einer verpassten Chance.

Kurz gesagt kann die Nutzung der Cloud als Erweiterung einer On-Premises-HPC-Infrastruktur bei zeitkritischen Aufgaben das Risiko verpasster Chancen mindern.

Um HPC-Innovationen in der Cloud voranzutreiben, arbeitet Intel eng mit Anbietern von Cloud-Diensten zusammen, um die Leistung zu maximieren, Techniken wie Intel® Software Guard Extensions (Intel® SGX) und Intel® Advanced Vector Extensions 512 (Intel® AVX-512) einzusetzen und das Onboarding zu vereinfachen. Erfahren Sie mehr über unsere HPC-Cloud-Technologien und darüber, wie mit ihnen bessere Ergebnisse erzielt werden können.

Die Auswahl von HPC für Skalierbarkeit und Leistung

Mit breit gefächerter Kompetenz in HPC-Technik erfüllt Intel die Leistungsanforderungen, um selbst die anspruchsvollsten Aufgaben von morgen zu bewältigen. Die skalierbare Intel® Xeon® Prozessorreihe stellt eine äußerst vielseitige Plattform bereit, die sich nahtlos skalieren lässt, um die unterschiedlichen Leistungsanforderungen kritischer HPC-Aufgaben zu unterstützen. Unsere demnächst verfügbaren Rechenzentrums-GPUs auf der Basis der Xe HPG Mikroarchitektur bilden eine ideale Ergänzung zu skalierbaren Intel® Xeon® und tragen dazu bei, die Leistung noch weiter voranzutreiben.

Gemeinsam mit unseren Ökosystem-Partnern priorisierte Intel die Bemühungen um das Erstellen von Planvorlagen, die optimierte HPC-Systemdesigns ermöglichen. Für die Validierung der Leistungsanforderungen sorgt der Intel® Cluster Checker (Teil des Intel® oneAPI HPC-Toolkits) dafür, dass Ihr HPC-Cluster-System intakt und für die parallele Ausführung von Anwendungen konfiguriert ist und gleichzeitig extrem hohe Portabilität für Datenbewegungen zwischen On-Premises-Systemen und Systemen in der HPC-Cloud bietet.

Mit der Intel® CoFluent™ Technik kann die Implementierung komplexer Systeme beschleunigt werden. Zudem kann sie durch die Modellierung simulierter Hardware- und Software-Interaktionen dabei helfen, die optimalen Einstellungen zu ermitteln.

Ein Durchbruch bei HPC-Arbeitsspeicher

Arbeitsspeicher ist ein wesentlicher Bestandteil des HPC-Systemdesigns. Der für die kurzzeitige Speicherung von Daten verantwortliche Arbeitsspeicher kann ein limitierender Faktor für die Workload-Leistung sein. Die Intel® Optane™ Technik hilft dabei, diese Engpässe in Rechenzentren zu überwinden, indem sie die Lücken in der Massenspeicher- und Arbeitsspeicherhierarchie schließt und Daten durchgehend zur Verfügung stehen.

Ein Arbeitsspeicher mit hoher Bandbreite hat nachweislich zum Erfolg geführt, wenn er in die bei der HPC-Programmierung verwendeten GPUs integriert wird. Bald wird er auch auf x86-Prozessoren zur Verfügung stehen. In vielen Fällen können Speichertechnologien mit hoher Bandbreite Codes beschleunigen, die ohne Codeänderungen an Bandbreiten gebunden sind. Außerdem können sie helfen, die Kosten für DDR-Speicher zu senken.

Scaling-Leistung mit HPC-Fabric

Um kleinere HPC-Systeme effektiv zu skalieren, benötigen Unternehmen ein High-Performance-Fabric, das für die Unterstützung von HPC-Clustern ausgelegt ist.

Intel® Hochleistungsnetzwerke (HPN) bieten eine optimierte Leistung durch Nutzung vertrauter und kostengünstiger Ethernet-Technologien. Dadurch erhalten Cluster-Manager eine End-to-End-Lösung, die ihren Bedarf an Schulungen zu HPC und maschinellem Lernen deckt. Vorhandene gängige HPC- und KI-Middleware und -Frameworks, einschließlich oneAPI, können zusammen mit Intel® HPN über die OpenFabrics Interfaces (OFI, auch als libfabric bekannt) und die Intel® Ethernet Fabric Suite verwendet werden.

Ein einfacherer Weg zum Erfolg von HPC

Intel sorgt mit seinen Kompetenzen für ein tiefgreifendes Verständnis von HPC-Anwendungen und -Architekturen und vermittelt, was ein HPC-System – ob On-Premises, in der Cloud oder Hybrid – benötigt, um Benutzern zu optimierten Ergebnissen zu verhelfen. Mit einer HPC-Architektur, die auf einem Fundament aus Intel® Technik basiert, sind Sie bereit, die HPC-, Exascale- und Zetascale-Anforderungen der Zukunft zu erfüllen.

Darüber hinaus stehen unsere oneAPI-Toolkits Entwicklern bereit und tragen zur Vereinfachung ihrer HPC-Programmieranstrengungen bei, indem sie mehr Hardware-Arten unterstützen und Geschäftsergebnisse maximieren.

FAQs

Häufig gestellte Fragen

High Performance Computing-Architektur bezieht sich auf die verschiedenen Komponenten, die für die Erstellung von HPC-Systemen und deren Bündelung im Paket eingesetzt werden. Oft umfassen diese Komponenten eine CPU und einen Beschleuniger, z. B. ein FPGA oder eine GPU, sowie Arbeitsspeicher, Datenspeicher und Netzwerkkomponenten. Knoten oder Server verschiedener Architekturen arbeiten im Einklang miteinander – entweder als parallele Knoten oder Knoten-Cluster – um komplexe Rechenaufgaben zu bewältigen.

Drei der kritischsten Komponenten für jedes HPC-System sind: der Prozessor, ein beliebiger der vorgeschriebenen Beschleuniger, z. B. ein FPGA oder eine GPU, und die erforderliche Netzwerkkonnektivität. Eine weitere kritische Überlegung ist ein Arbeitsspeicher mit hoher Bandbreite.