Der Aufbau einer optimierten HPC-Architektur

Legen Sie das Design Ihres High-Performance-Computing-Systems (HPC-Systems) so aus, dass es mit künftigen Aufgaben wächst.

Hauptkomponenten eines HPC-Systems:

  • Die Planung Ihres HPC-Systems kann eine Kombination Parallel-Computing-, Cluster-Computing- und Grid/Distributed-Computing-Strategien umfassen.

  • Ein Hybrid-Cloud-Ansatz, der firmenintern betriebene Infrastruktur mit öffentlichen Cloud-Ressourcen verbindet, stellt bei Bedarf zusätzliche Ressourcen bereit und verringert dadurch das Risiko nicht wahrgenommener Chancen.

  • Für HPC ausgelegte Intel® Technik, die Prozessoren, Arbeitsspeicher und Fabric-Komponenten umfasst, legt das Fundament für leistungsstarke, unglaublich skalierbare Systeme.

author-image

By

In der beschleunigten Geschäftswelt von heute beginnt die Grundlage für die erfolgreiche Einführung von HPC-Technik mit gut definierter HPC-Architektur. Je nachdem, welche Aufgaben und Computing-Ziele in Ihrem Unternehmen vorherrschen, stehen Ihnen unterschiedliche HPC-Systemdesigns und zugehörige Ressourcen zur Verfügung, um Produktivitätszuwächse und skalierbare Leistung zu erzielen.

Die Planung eines HPC-Systems

High-Performance-Computing-Architektur (HPC-Architektur) steht in zahlreichen Formen für unterschiedliche Anforderungen zur Verfügung. Organisationen können für das Design von HPC-Systemen verschiedene Möglichkeiten wählen.

Parallelverarbeitung
Mittels HPC-Parallel-Computing können HPC-Cluster Berechnungen gleichzeitig beziehungsweise parallel durchführen. Als entscheidendes Argument für die Bewältigung großer und komplexer Probleme nimmt der Parallel-Computing-Ansatz große Workloads und teilt sie in separate Rechenaufgaben auf, die sich gleichzeitig ausführen lassen.

Diese Systeme können für die Scale-up- oder Scale-out-Strategie ausgelegt sein. Bei der Scale-up-Parallelverarbeitung wird eine Aufgabe innerhalb eines Systems in so viele Happen unterteilt, dass die jeweilige Arbeit von einzelnen Kernen bewältigt werden kann, wobei ein möglichst großer Teil des Servers genutzt wird. Im Gegensatz dazu wird bei Scale-out-Parallelverarbeitung dieselbe Aufgabe in handliche Teile zerlegt, die auf mehrere Server oder Computer verteilt werden, wobei die gesamte Verarbeitung parallel erfolgt.

Cluster-Computing
Für einen High-Performance-Computing-Cluster werden mehrere Computer beziehungsweise Knoten über ein lokales Netzwerk (LAN) miteinander verbunden, um eine HPC-Cluster-Architektur zu erstellen. Der Cluster agiert wie ein einzelner Computer, allerdings einer mit extrem hoher Rechenleistung. Die Konfiguration eines HPC-Clusters dient ausschließlich der Lösung eines Problems, das sich über alle Knoten des Systems erstreckt. HPC-Cluster haben eine definierte Netzwerk-Topologie und bieten Organisationen die Voraussetzung, komplexe Berechnungen mit kompromisslos hoher Verarbeitungsgeschwindigkeit durchzuführen.

Grid-Computing und verteilte Verarbeitung
HPC-Grid-Computing und HPC-Distributed-Computing sind Synonyme und bezeichnen dieselbe Art von Computerarchitektur. Bei diesem Ansatz sind mehrere Computer über ein Netzwerk verbunden und haben ein gemeinsames Ziel, zum Beispiel die Lösung eines komplexen Problems oder die Durchführung einer umfangreichen Rechenaufgabe. Dieses Konzept eignet sich ideal für Aufgaben, die sich in separate Happen aufteilen und über das Grid verteilen lassen. Jeder Knoten innerhalb des Systems kann Aufgaben eigenständig ausführen, ohne mit den anderen Knoten zu kommunizieren.

Kompatibilität gängiger HPC-Anwendungen
Intel hat gemeinsam mit Partnern aus der Branche an der Definition von Best Practices gearbeitet, mit denen HPC-Anwendungen und Clustersysteme,die auf der Intel® Architektur basieren, gefördert werden sollen. Die Spezifikation für die Intel® HPC-Plattform umfasst gängige Software- und Hardware-Anforderungen, die Anwendungsentwickler verwenden können, um die Grundlage für Cluster-Lösungen aufzubauen. Ein System, das diese Anforderungen erfüllt, bietet für die Anwendungsschicht eine Reihe definierter Eigenschaften, einschließlich der Intel® Software-Runtime-Komponenten, die zum Leistungsverhalten führen. Die Plattformspezifikation umfasst Konfigurations- und Kompatibilitätsinformationen für eine breite Auswahl von Anwendungen, die in diesem Bereich üblich sind.

HPC-Cloud-Infrastruktur

In der Vergangenheit waren HPC-Systeme durch die Kapazität der vor Ort betriebenen Infrastruktur beschränkt. Heute bietet die Cloud die Möglichkeit, die lokal verfügbare Kapazität um Ressourcen in der Cloud zu erweitern.

Die neuesten Cloud-Management-Plattformen ermöglichen einen Hybrid-Cloud-Ansatz, der die vor Ort betriebene Infrastruktur mit Public-Cloud-Diensten zusammenführt, so dass sich Aufgaben nahtlos über alle verfügbaren Ressourcen hinweg ausführen lassen. Dies bietet größere Flexibilität für die Bereitstellung von HPC-Systemen und die Geschwindigkeit von Scale-up-Erweiterungen. Darüber hinaus birgt dieser Ansatz die Chance, die Gesamtbetriebskosten (TCO) zu optimieren.

In der Regel bietet ein vor Ort betriebenes HPC-System geringere TCO als ein äquivalentes HPC-System, das rund um die Uhr (24/7) in der Cloud reserviert ist. Eine firmeninterne Lösung, die für Spitzenkapazität ausgelegt ist, wird jedoch nur dann zur Gänze genutzt, wenn diese Spitzenkapazität erreicht wird. Die meiste Zeit über wird die interne Lösung nicht ausgelastet sein, was dazu führt, dass Ressourcen inaktiv beziehungsweise im Leerlauf sind. Andererseits kann es vorkommen, dass ein Workload, das mangels verfügbarer Kapazität nicht ausgeführt werden kann, in einer verpassten Geschäftsmöglichkeit resultiert.

Kurz gesagt kann die Nutzung der Cloud als Erweiterung interner HPC-Infrastruktur bei zeitkritischen Aufgaben das Risiko verpasster Gelegenheiten mindern. 

Die Auswahl von HPC für Skalierbarkeit und Leistung

Mit breit gefächerter Kompetenz in HPC-Technik erfüllt Intel die Leistungsanforderungen, um selbst die anspruchsvollsten Aufgaben von morgen zu bewältigen. Die skalierbare Intel® Xeon® Prozessorreihe stellt eine äußerst vielseitige Plattform bereit, die sich nahtlos skalieren lässt, um die unterschiedlichen Leistungsanforderungen kritischer HPC-Aufgaben zu unterstützen.

Intel hat gemeinsam mit seinen Partnern Prioritäten für die Erstellung von Konzepten gesetzt, die hochgradig optimierten HPC-Systemdesigns als Grundlage dienen. Für die Validierung der Leistungsanforderungen sorgt der Intel® Cluster Checker dafür, dass Ihr HPC-Cluster-System intakt und für die parallele Ausführung von Anwendungen konfiguriert ist sowie unglaubliche Portabilität für Datenbewegungen zwischen den Systemen am Standort und in der HPC-Cloud bietet.

Mit der Intel® CoFluent™ Technik kann die Implementierung komplexer Systeme beschleunigt werden. Zudem kann sie durch die Modellierung simulierter Hardware- und Software-Interaktionen dabei helfen, die optimalen Einstellungen zu ermitteln.

Ein Durchbruch bei HPC-Arbeitsspeicher

Arbeitsspeicher ist ein wesentlicher Bestandteil des HPC-System-Designs. Der für die kurzzeitige Speicherung von Daten verantwortliche Arbeitsspeicher kann ein limitierender Faktor für die Workload-Leistung sein. Die Intel® Optane™ Technik hilft dabei, diese Engpässe in Rechenzentren zu überwinden, indem sie die Lücken in der Massenspeicher- und Arbeitsspeicherhierarchie schließt und Daten durchgehend zur Verfügung stehen.

Scaling-Leistung mit HPC-Fabric

Um HPC-Systeme effektiv zu skalieren, wird eine leistungsstarke Fabric benötigt, die für HPC-Cluster ausgelegt ist. Die Intel® Omni-Path-Architektur (Intel® OPA) überwindet die Leistungsbeschränkungen aktueller Fabric-Technik, indem sie eine Skalierung auf bis zu zehntausende Knoten und mehr ermöglicht. Dadurch stehen Anwendungsentwicklern End-to-End-Lösungen zur Verfügung, die ihre Anforderungen hinsichtlich Adaptive Routing, Dispersive Routing, Traffic Flow Optimization (TFO), Packet Integrity Protection (PIP) und Dynamic Lane Scaling (DLS) erfüllen. Intels leistungsstarke Fabrics sind so konzipiert, dass sie die Anforderungen der HPC-Workloads von morgen zu einem Preis erfüllen, der es mit heutigen Fabric-Lösungen aufnehmen kann.

Ein einfacherer Weg zur HPC-Einführung

Intel verfügt über das essenzielle Fachwissen, um die Anwendungen, die Sie ausführen wollen, zu verstehen und zu erkennen, wie ein bestimmtes HPC-System – und zwar eines, das interne und Cloud-Ressourcen kombiniert – Ihnen dabei helfen wird, Ergebnisse zu erzielen und den von Ihnen erzielten Arbeitsumfang zu maximieren. Mit HPC-Architektur, die auf einem Fundament aus Intel® Technik basiert, sind Sie bereit, die HPC- und Exascale-Anforderungen der Zukunft zu erfüllen.

Heute ermöglicht Ihnen die Cloud das Upscaling von HPC-Systemen, indem sie Ihren Zugang zu Rechen-, Datenspeicher- und Netzwerkressourcen nahtlos erweitert.

Rechtliche Hinweise und Disclaimer

Die Funktionsmerkmale und Vorteile von Intel® Techniken hängen von der Systemkonfiguration ab und können geeignete Hardware, Software oder die Aktivierung von Diensten erfordern. Die Leistungsmerkmale variieren je nach Systemkonfiguration. Kein Produkt und keine Komponente können absolute Sicherheit bieten. Informieren Sie sich beim Systemhersteller oder Einzelhändler oder auf intel.de.

Die beschriebenen Kostensenkungsszenarien sind als Beispiele dafür gedacht, wie ein bestimmtes Produkt mit Intel® Technik unter den genannten Umständen und in der angegebenen Konfiguration zukünftige Kosten beeinflussen und Einsparungen ermöglichen kann. Die Umstände unterscheiden sich von Fall zu Fall. Intel übernimmt keine Gewähr für Kosten oder Kostensenkungen.

Intel schließt jegliche ausdrücklichen oder konkludenten Gewährleistungen aus, einschließlich konkludenter Gewährleistungen bezüglich der Eignung für den Handel oder einen bestimmten Zweck und der Nichtverletzung von Rechten, sowie Gewährleistungen, die aus einer Leistungserbringung, aus dem Handel oder der Verwendung im Handel entstehen.

Intel, das Intel-Logo und andere Kennzeichen von Intel sind Marken der Intel Corporation oder ihrer Tochtergesellschaften. © Intel Corporation.