Ein optimierter Weg zu HPC in der Cloud
Die Nutzung der Cloud für High-Performance Computing (HPC)-Anwendungen steigt weiter an
Der Markt für HPC in der Cloud soll bis 2024 auf 9 Mrd. USD anwachsen1
HPC-Simulation treibt Innovationen in Finanzdienstleistungen, Gesundheitswesen und Transportwesen voran.
Seit über 10 Jahren arbeiten Intel und AWS zusammen, um produktive Cloud-Umgebungen voranzutreiben, die Anwendungsentwickler und ihre Benutzer in die Lage versetzen, die Anforderungen von HPC und künstlicher Intelligenz (KI) zu erfüllen.
Der standardbasierte Ansatz von Intel und AWS bietet eine funktionsreiche Cloud-Umgebung, die auf die Anforderungen einer Vielzahl von HPC- und KI-Workloads zugeschnitten werden kann.
Die wichtigsten Funktionen der Collaboration für AWS-Entwickler
1. Innovative Intel® Hardware
Integrierte Funktionen steigern die Leistung für KI- und HPC-Workloads
Intel® Advanced Vector Extensions 512 (Intel® AVX-512) profitieren von einer Vielzahl von Workloads, wie z. B. wissenschaftlichen Simulationen, Finanzanalysen, KI/Deep Learning, 3D-Modellierung und -Analyse, Bild- und Audio-/Videoverarbeitung, Kryptografie und Datenkompression.
Beschleunigen Sie Deep Learning Inference
Intel® Deep Learning Boost (Intel® DL Boost) verbessert Intel AVX-512 mit Vector Neural Network Instructions (VNNI). Arbeitslasten wie Bildklassifizierung, Spracherkennung, Sprachübersetzung oder Objekterkennung können von dieser Technologie erheblich profitieren.
Erhalten Sie noch mehr Leistung, wenn Sie sie am meisten brauchen2
Mit der Intel® Turbo-Boost-Technik kann die Taktfrequenz der Prozessorkerne automatisch über die vorgegebene Taktfrequenz hinaus erhöht werden, wenn die Grenzwerte des Prozessors für die Leistungsaufnahme, die Stromstärke und die Temperatur nicht überschritten werden. Die neuen Amazon EC2 M5zn-Instanzen bieten die schnellsten skalierbaren Intel® Xeon® Prozessoren in der Cloud, mit einer All-Core-Turbofrequenz von bis zu 4,5 GHz.
2. Entdecken Sie die erstklassigen Entwickler-Tools von Intel
Entwickler können Intel® Architekturfunktionen nutzen, um die Leistung von Scale-up- und Scale-out-Anwendungen zu optimieren. Intels einheitliches, standardbasiertes Programmiermodell, Intel® oneAPI (beta), bietet:
- Analyse und Debug-Tools, die helfen, Code-Optimierungen zu finden und Codes von Generation zu Generation kontinuierlich zu verbessern.
- Optimierte KI- und Machine-Learning-Frameworks wie TensorFlow, PyTorch und weitere nutzen die Vorteile von Intel-Architekturfunktionen wie Intel AVX 512 und Intel DL Boost.3
- Architekturübergreifender Betrieb mit der Intel® Distribution von OpenVINO™ Toolkit.
- Erhöhen Sie die Leistung von Data-Science- und KI-Frameworks mit der Intel® Distribution für Python. Erfahren Sie, wie die Intel Distribution für Python das Experimentieren mit vorhersehbarem Verhalten beschleunigen kann.
- Mit Intel® DevCloud können Entwickler zahlreiche Technologien in einer kostenlosen Entwicklungs-Sandbox ausprobieren.
Lesen Sie die Industrieberichte zur Intel OneAPI-Industrieinitiative
3. Leichte Bereitstellung Ihrer Lösung
Hardware und Software verpackt in einer Standard-Cluster-Architektur.
Beschleunigen und vereinfachen Sie den Erwerb und Betrieb von HPC-Lösungen für Anwender.
Verwenden Sie eine gemeinsame Schnittstelle für die Unterstützung der breiten Anwendungsanforderungen der Zielplattform mit der Intel® HPC Plattform Spezifikation.
Intel und AWS haben gemeinsam eine Intel® Select-Lösung für Simulation und Modellierung unter Verwendung von AWS ParallelCluster auf den Markt gebracht, um eine optimierte Lösung für die Ausführung von HPC-Workloads zu schaffen.
4. Weitere Funktionen beschleunigen den Einsatz und erhöhen die Rentabilität der Investition.
- Den Entwicklern und Anwendern steht nur begrenzte Zeit zur Verfügung, um Optimierungen und Lösungsintegration zu erarbeiten. Sie brauchen einen einfacheren Weg.
- Intel und AWS haben dieses Hindernis für Cloud-basiertes HPC beseitigt, indem sie Optimierungen zur Leistungssteigerung mit dem AWS Elastic Fabric Adapter und der Intel® MPI-Bibliothek feinabgestimmt haben.
- Diese Kombination baut auf der Open Fabrics-Schnittstelle auf und bietet eine 100-GbE-Fabric-Leistung mit der niedrigen Latenz, die für die Skalierung von Anwendungs-Workloads über viele Instanzen hinweg erforderlich ist.
- Die Lösung wird mit AWS ParallelCluster verpackt.