Intel® Gaudi® KI-Beschleuniger
Deep Learning-Trainings- und Inferenz-Prozessor der ersten Generation.
Intel® Gaudi® KI-Beschleuniger
Für führende Preisleistung in der Cloud und vor Ort
Mit dem Intel® Gaudi® KI-Prozessor der ersten Generation profitieren Kunden von der kosteneffektivsten und leistungsstärksten Trainings- und Inferenz-Alternative zu vergleichbaren GPUs. Dies ist die Deep Learning-Architektur, die es AWS DL1-Instanzen auf Basis des Intel Gaudi KI-Beschleunigers ermöglicht, bis zu 40 % besseres Preis-Leistung-Training im Vergleich zu vergleichbaren Nvidia GPU-basierten Instanzen zu bieten. Die effiziente Architektur des Intel Gaudi KI-Beschleunigers ermöglicht es Supermicro auch, Kunden mit dem Supermicro X12-Server mit Intel Gaudi KI-Beschleunigern einen ebenso erheblichen Preis-Leistungs-Vorteil gegenüber GPU-basierten Servern zu bieten.
Intel® Gaudi® KI-Beschleuniger in der Cloud
Jetzt loslegen mit Amazon EC2 DL1-Instanzen auf Basis von Intel Gaudi KI-Beschleunigern.
Intel® Gaudi® KI-Beschleuniger im Rechenzentrum
Bauen Sie Intel Gaudi KI-Prozessoren mit Supermicro in Ihr Rechenzentrum ein.
Was macht den Intel Gaudi KI-Beschleuniger so effizient?
- 16-nm-Prozesstechnik
- DL-optimierte Matrix-Multiplikations-Engine
- 8 programmierbare Tensor Prozessorkerne
- 32-GB Onboard HBM2
- 24 SRAM
- 10 integrierte 100G-Ethernet-Ports
Optionen für die Entwicklung von Intel Gaudi KI-Beschleunigersystemen vor Ort
Für Kunden, die lokale Systeme ausbauen möchten, empfehlen wir den Supermicro X12-Server, der acht Intel Gaudi KI-Prozessoren bietet. Für Kunden, die ihre eigenen Server auf Basis von Intel Gaudi KI-Beschleunigern konfigurieren möchten, bieten wir die Referenzmodell-Optionen, HLS-1 und HLS-1H.
Weitere Informationen zu diesen Serveroptionen finden Sie unter Weitere Einzelheiten >
Entwicklung auf Intel Gaudi KI-Beschleuniger schnell und einfach machen: Intel® Gaudi® Software
Optimiert für die Deep Learning-Modellentwicklung und zur Vereinfachung der Migration vorhandener GPU-basierter Modelle auf Intel Gaudi KI-Plattform-Hardware. Sie integriert PyTorch und TensorFlow Frameworks und unterstützt eine schnell wachsende Palette von Computer Vision, Verarbeitung natürlicher Sprache und multimodalen Modellen. Tatsächlich sind mehr als 500.000 Modelle auf Hugging Face mit der Habana Optimum Softwarebibliothek einfach auf Intel Gaudi Beschleunigern aktiviert.
Die ersten Schritte mit der Modellmigration sind so einfach wie das Hinzufügen von 2 Code-Zeilen. Für erfahrene Benutzer, die ihre eigenen Kernel programmieren möchten, bietet die Intel Gaudi Plattform das vollständige Tool-Kit und die Bibliotheken dazu. Intel Gaudi Software unterstützt das Training und die Inferenz von Modellen auf Intel Gaudi Beschleunigern der ersten Generation und Intel Gaudi 2 Beschleunigern.
Weitere Informationen dazu, wie die Intel Gaudi Plattform die Migration vorhandener oder Entwicklung neuer Modelle auf Gaudi vereinfacht, finden Sie auf unserer Intel Gaudi Software-Produktseite >