HPC-Workloads in der Cloud werden ausgeführt
HPC-Cloud-Computing hat viele technologische Weiterentwicklungen in Bezug auf Leistungsstand und Verfügbarkeit erlebt. Unternehmen, die HPC-Workloads ausführen müssen, können Cloud-Services nutzen, um ihre komplexesten und anspruchsvollsten Rechen- und Speicherintensiven Anforderungen anzunehmen. HPC in der Cloud kann auch die Zeit bis zu den Ergebnissen verbessern, damit Forscher ihre Zeit mit der Forschung verbringen und nicht für die Auftragswarteschlange warten. Viele der Intel® Techniken, die die Bereitstellung von HPC ermöglichen, finden Sie auch in der HPC-Cloud. Intel arbeitet eng mit CSPs zusammen, mit wichtigen Toolkits und Hardwarebasierter Sicherheit und Beschleunigung, um HPC-Workloads auf der Intel® Architektur zu optimieren.
Überlegungen für die Cloud-HPC-Architektur
In der Cloud bezahlen Kunden pro Stunden und priorisieren ihr Budget basierend auf Zeit zu den Ergebnissen. Architektur spielt eine wichtige Rolle bei der Bereitstellung der erforderlichen Leistung, um HPC-Workloads im gewünschten Zeitrahmen zu verarbeiten und trägt letztlich zum Fazit des Kunden bei. Intel ist Vorreiter bei der Arbeit mit CSPs zur Bereitstellung von leistungsstarker Architektur, wo es am wirkungsvollsten für HPC-Cloud-Instanzen ist. Wichtige Frameworks und Techniken umfassen die folgenden:
- Skalierbare Intel® Xeon® Prozessoren sind das Kernstück der HPC-Cloud-Server, die die Leistung und Speicherkapazität für die rechenintensivsten Workloads bieten. Die skalierbare Intel® Xeon® Prozessorplattform unterstützt auch mehrere wichtige Technologien, die unten aufgezählt werden, die spezifische HPC-Anwendungsfälle einschließlich KI-Konvergenz ermöglichen. Skalierbare Intel® Xeon® Prozessoren der 3. Generation, die bald in großen CSP-HPC-Cloud-Angeboten bereitgestellt werden sollen, werden mehr Speicherbandbreite liefern1 und höhere Anweisungen pro Taktzyklus2 über dem Prozessor der vorherigen Generation. Intel® Speed-Select-Technik auf skalierbaren Intel® Xeon® Prozessoren ermöglichen mehrere Konfigurationen in einem Serer, um die Anforderungen von unterschiedlichen Workloads zu erfüllen. Diese Verbesserungen können Kunden helfen, bessere Kosten pro Leistung und Zeit zu erreichen.
- Intel® Software Guard Extensions (Intel® SGX) auf ausgewählten skalierbaren Intel® Xeon® Prozessoren ist eine äußerst wünschenswerte Funktion zum Ausführen und Sichern von HPC-Workloads in der Cloud. Während viele Sicherheitstechniken sich auf den Schutz von Daten im Ruhezustand zu konzentrieren, hilft Intel® SGX Daten während des kritischen Moments zu schützen, wenn sie verarbeitet werden. In mandantenfähigen HPC-Cloud-Umgebungen, hilft Intel® SGX auch Container und VMS durch Verwendung von Speicherenklaven zu schützen, um kryptografische Schlüssel und Daten im Transit zu isolieren.
- Intel® Advanced Vector Extensions 512 (Intel® AVX-512) ist eine Reihe von Prozessoranweisungen, die Vektorintensive Computing-Workload-Leistung stärken. Intel® AVX-512 ist besonders geeignet für Vektor-/Matrik-Operationen in großen Datensätzen und ist ein wettbewerbsfähiges Unterscheidungsmerkmal für skalierbare Intel® Xeon® Prozessoren. Forscher und Datenwissenschaftler können Intel® AVX-512 verwenden, um die Leistung für KI-/DL-Workloads, DNA-Sequenzierung, Simulationen, Finanzanalyse und 3D-Modellierung zu steigern.
- Intel® Deep Learning Boost (Intel® DL Boost) in skalierbaren Intel® Xeon® Prozessoren umfasst einen neuen Satz Vector Neural Network Instructions (VNNI), die Intel® AVX-512 erweitern. VNNI können auch dazu beitragen, die Anzahl und Komplexität von konvolutionalen Operationen zu reduzieren, die zur KI-Inferenz erforderlich sind, was zu niedrigeren Strom- und Arbeitsspeicheranforderungen für HPC-Cloud-Systeme führt3. Intel® DL Boost kann die konvolutionalen neuronalen Netzschleifen beschleunigen und KI-Operationen in HPC-Cloud-Instanzen erhöhen, mit 3,4-mal größerer Leistung3.
- Intel® oneAPI ist ein vereinheitlichtes Programmiermodell, das spezifisch für heterogene HPC-Infrastruktur entwickelt wurde. Dieses Modell umfasst wichtige Leistungsbibliotheken wie die Intel® Distribution für Python und Intel® MKL, die dazu beitragen, HPC Workloads auf Intel Architektur zu optimieren und zu beschleunigen. Intel® MPI ist ein differenziertes Angebot auf vielen CSP-Märkten, das es Entwicklern ermöglicht, komplexe Anwendungen für mehrere Cluster leicht bereitzustellen, Code für High-Performance zu optimieren und automatisches Tuning zu verwenden, um niedrige Latenz und hohe Bandbreite zu erreichen. Kunden und CSPs verwenden diese Frameworks, um sicherzustellen, dass sie die meisten Auswirkungen ihrer HPC-Investitionen erzielen.
- Intel® HPC Platform Specification ist eine Reihe von Mindestanforderungen für Rechner, Arbeitsspeicher, Dtaenspeicher und Fabric sowie kompatible Anwendungen für HPC-Infrastruktur. Kunden und Unternehmen können sich auf diese Spezifikation verlassen, als Sicherung, dass HPC-Cloud-Serviceanbieter einen hohen Qualitätsstandard für ihre HPC-Workloads erfüllen.
HPC-Cloud-Serviceanbieter mit Intel-Technik
Intel arbeitet eng mit führenden HPC-Cloud-Serviceanbietern zusammen, einschließlich AWS, Google CloudPlatform, Microsoft Azure und Oracle. Jede CSP bietet ihre eigenen Cloud-Instances mit einem starken Fundament von skalierbaren Intel® Xeon® Prozessoren, die für Intel® MPI optimiert sind und integrierte Intel® DL Boost bieten. Darüber hinaus hat jede CSP ihren eigenen Markt von Intel- und Drittanbieter-Lösungen, um Unternehmen zu helfen, schnell mit HPC-Instances mit Intel-Technik zu beginnen.
- Auf Intel Technik basierende Instanzen von Amazon Web Services arbeiten mit skalierbaren Intel® Xeon® Prozessoren und bieten mehrere Konfigurationsoptionen, um die Kapazität an HPC-Anforderungen anzupassen. AWS ParallelCluster ist ein weiterer angebotener Dienst, der Kunden bei der Orchestrierung mehrerer AWS-Cluster in einer konsolidierten HPC-Cloud-Lösung unterstützt. Intel hat auch den AWS-HPC-Kompetenz-Status erreicht, eine Auszeichnung, die das tiefgehende Fachwissen von Intel bei HPC-Cloud-Lösungen mit AWS belegt.
Weitere Informationen über die Zusammenarbeit von Intel mit AWS ›
Lesen Sie die Praxisbeispiele für die Automatisierung der elektronischen Entwicklung von AWS ›
Weitere Informationen über Intel-fähige Amazon EC2-Instanzen ›
Video: Verbesserung der Effizienz von HPC-Simulationen in der Cloud › - Google Cloud Platform N2- und C2-Maschinentypen verwenden skalierbare Intel® Xeon® Prozessoren und Intel® AVX-512, um intensive HPC-Workloads in der Cloud zu unterstützen. N2-Instanzen verwenden Intel® DL Boost und bieten 2,82-mal höhere KI-Inferenzleistung im Vergleich zu den N1-Instanzen4 die voreingestellten HPC VM-Images zur Verwendung in ihren Clustern an, mit der Intel® MPI-Bibliothek als eine wichtige Optimierung.
Weitere Informationen über die Zusammenarbeit von Intel mit Google Cloud ›
Einführung in die Genomanalyse auf der Google Cloud Platform ›
Erfahren Sie mehr darüber, wie Intel Google Cloud ermöglicht › - Virtuelle Maschinen der Microsoft Azure HC-Serie mit bis zu 44 skalierbaren Intel® Xeon® Prozessorkernen und Funktionen wie Intel® AVX-512 und Intel® MKL. Azure verwendet auch Intel® Arria® 10 FPGAs zur Beschleunigung von KI- und Machine-Learning-Modelltraining für HPC-Workloads. Microsoft hat kürzlich das Azure HPC und KI Collaboration Center veröffentlicht, mit Intel als wichtiger Partner, um zur Verarbeitung der Erfolgsmodelle von HPC und KI beizutragen.
Blog: Evaluierung von Genomik-Pipelines auf Azure: Intel-basierte virtuelle Maschinen ›
Video : Microsoft Azure HPC kündigt die neuen virtuellen FX-Service-Rechner an, die für EDA-Workloads vorgesehen sind ›
Weitere Informationen über Intel und Microsoft Azure-Partnerschaft ›
Lesen Sie den Intel und Microsoft Azure HPC-Leitfaden ›
Erfahren Sie mehr über die Geschäftsvorteile von Azure › - Intel-fähige HPC-Cloud-Services von Oracle bieten Leistung, die um Lösungen an Ihrem Standort konkurrieren, mit dem zusätzlichen Vorteil von Cloud-Wirtschaftlichkeit und On-Demand-Ressourcen. Skalierbare Intel® Xeon® Prozessoren der 3. Generation in Oracle X9 Generation-Instanzen führen zu einer Leistungssteigerung von 42 Prozent im Vergleich zu bestehenden X7 Generation-Instanzen.5.
Lesen Sie die Oracle X9 Pressemitteilung ›
Lesen Sie das Praxisbeispiel der Nissan-Engineering-Simulation ›
Vereinfachung des CSP-Onboarding mit Intel-Technik
Während Unternehmen die Verwendung von Intel-fähigen CSPs berücksichtigen, kann die Auswahl der richtigen HPC-Cloud-Angebote komplex und eine große Anstrengung sein. Zum Glück stehen Partner für die Integration von Cloud-Diensten von Drittanbietern zur Verfügung, die dazu beitragen können, dass Unternehmen die besten Angebote wählen und den Onboarding-Prozess optimieren können. Diese Partner sind in der Regel kleinere Unternehmen, die beim Einrichten von Workloads unterstützen, nicht standardmäßige Funktionen ermöglichen, einzigartige Erkenntnisse über umfangreiche Benutzeroberflächen-Dashboards anbieten oder sogar Wege entdecken, um die Workload-Verarbeitung auf eine Art zu replizieren, die im Einklang mit lokalen Nutzungsmodellen steht. Wichtige Beispiele für diese Arten von Technologiepartnern sind Rescale, RONIN, Six Nines und OnScale. HPC in der Cloud bietet eine enorme Auswahl und Vielfalt an Service-Angeboten, aber diese Wahl kann ein zweischneidigen Schwert sein und die Schwierigkeit bei der Auswahl der richtigen Lösung erhöhen. Partner helfen durch das Angebot von Leitfaden, Fachkenntnissen und Spezialisierung.
HPC Cloud Praxisbeispiele
Diese Anwendungsfälle zeigen, wie HPC-Workloads in der Cloud dabei helfen, notwendige Rechenressourcen in Kombination mit Cloud-Flexibilität und Agilität für die Beantwortung von Fragen und die Lösung großer Probleme bereitzustellen:
- OnScale macht digitalen Prototypenbau zugänglich ›
- Die University of Victoria baut die nächste Generation Cloud-Infrastruktur ›
- MicroSeismic stellt 3D Visualisierung in der AWS Cloud ein ›
- ClimaCell liefert innovative Wettervorhersage ›
- Ansys nutzt Azure virtuelle Maschinen zur vollständigen Simulation integrierter Hochfrequenzschaltungen ›
- Mehr erfahren über die Bereitstellung des Genome Analysis Toolkit (GATK) Intel-fähiger Cloud-Infrastruktur ›
Wegweisend für die HPC-Cloud
Viele IT-Entscheider kennen die Rolle, die Intel bei der Bereitstellung von Fachwissen für die Entwicklung von HPC-Architektur vor Ort erfüllt. Intel kann jedoch die gleiche Rolle als vertrauenswürdige Berater für HPC in der Cloud erfüllen. Jede Organisation, die einen Punkt für den Einstieg aussucht, kann mit Intel beginnen und von einem globalen Technologieumfeld von CSPs und Technologiepartnern profitieren.