Intel® Gaudi® 2 KI-Beschleuniger
Hohe Leistungsbeschleunigung für GenAI und LLMs.
Intel® Gaudi® 2 KI-Beschleuniger
Unser Intel® Gaudi® 2 KI-Beschleuniger sorgt für ein verbessertes Deep Learning-Preis-Leistungs-Verhältnis
Und betriebliche Effizienz für das Training und die Ausführung modernster Modelle, von den größten Sprach- und multimodalen Modellen bis hin zu einfacheren Computer-Vision- und NLP-Modellen. Die für effiziente Skalierbarkeit entwickelten Intel Gaudi 2 Beschleuniger, ob in der Cloud oder in Ihrem Rechenzentrum, bieten der KI-Branche die Auswahl, die sie benötigt – jetzt mehr denn je.
Intel® Gaudi® 2 Architektur-Funktionen:
Basierend auf der bewährten Intel Gaudi Design-Grundlage der ersten Generation.
- 7-nm-Prozesstechnik
- Heterogene Compute
- 24 Tensor Prozessorkerne
- Dual-Matrix-Multiplikations-Engines
- 24 100-Gigabit Ethernet auf Chip integriert
- 96-GB HBM2E-Arbeitsspeicher an Bord
- 48 MB SRAM
- Integrierte Mediensteuerung
Intel® Gaudi® 2 KI-Beschleuniger in der Cloud
Entdecken Sie die Leistung und Benutzerfreundlichkeit der Intel® Gaudi® 2 KI-Beschleuniger in der Intel® Tiber™ Developer Cloud.
Weitere Informationen
Intel® Gaudi® 2 KI-Beschleuniger im Rechenzentrum
Bringen Sie mit Lösungen von Supermicro und IEIs den Preis-Leistungs-Vorteil in Ihre Infrastruktur ein.
Weitere Informationen
Intel® Gaudi® 2 KI-Beschleuniger bleibt die EINZIGE Benchmark-Alternative zu Nvidia H100 für generative KI-Leistung
Basierend auf den neuesten MLPerf Training 3.1 und Inferenz-4.0-Benchmarks, die im Dezember 2023 bzw. März 2024 veröffentlicht wurden, bleibt Intel Gaudi 2 Beschleuniger die einzige Benchmark-Alternative zu Nvidia H100.
Neben dem MLPerf Branchen-Benchmark punktet Intel Gaudi 2 KI-Beschleuniger bei anderen Bewertungen von Drittanbietern.1
Intel® Gaudi® 2 KI-Beschleuniger unterstützt massive, flexible Skalierung
Mit 24x 100-Gigabit Ethernet (RoCEv2)-Ports, die in jeden Intel Gaudi 2 KI-Beschleuniger integriert sind, profitieren Kunden von flexibler und kosteneffizienter Skalierbarkeit, die die Leistung des Intel Gaudi 2 KI-Beschleunigers von einem auf Tausende von Beschleunigern erweitert.
Siehe Bild unten für das Server-Referenzdesign mit 8x Intel Gaudi 2 Beschleunigern.
Weitere Informationen zum Aufbau der Systemskalierung mit Intel Gaudi 2 KI-Beschleuniger finden Sie auf unserer Seite Netzwerktechnik ›
Vorgestellter Partner
Cisco Nexus 9364D-GX2A Switches sind qualifiziert, um Intel Gaudi 2 Beschleuniger zu verbinden, um ein skalierbares Netzwerk für die Ausführung von LLM-Training, Inferenz oder ähnlichen generativen KI-Workloads aufzubauen.
Entwickeln Sie einfach neue oder migrieren Sie vorhandene Modelle auf Intel Gaudi 2 KI-Beschleunigern
Intel Gaudi Software, die für die Leistung und Einfachheit der Intel Gaudi Plattform optimiert ist, bietet Entwicklern die Dokumente, Tools, Anleitungsinhalte und Referenzmodelle, die ihnen dabei helfen, schnell und einfach mit Intel Gaudi Software loszulegen.
Greifen Sie mit der Habana Optimum Library auf dem Hugging Face Hub auf über 500.000 Modelle zu und implementieren Sie sie einfach.
Weitere Informationen finden Sie auf unserer Entwickler-Website ›
Ressourcen für Intel Gaudi 2 KI-Beschleuniger
Produkt- und Leistungsinformationen
Besuchen Sie https://habana.ai/habana-claims-validation für Workloads und Konfigurationen. Die Ergebnisse können von Fall zu Fall abweichen. https://huggingface.co/blog/habana-gaudi-2-benchmark https://huggingface.co/blog/habana-gaudi-2-bloom