Durch die Auslegung auf High-Performance Computing (HPC) verwendet das Intel® Omni-Path Host Fabric Interface (Intel® OP HFI) ein modernes, verbindungsfreies Design, das auch für eine hohe Knoten- und Kernanzahl skaliert werden kann. Somit ist diese Lösung die erste Wahl für anspruchsvolle Anwendungsumgebungen. Intel OP HFI unterstützt 100 Gbit/s je Port, sodass jeder Intel OP HFI-Port bis zu 25 Gbit/s je Port an bidirektionaler Bandbreite bereitstellen kann. Der gleiche ASIC wie im Intel OP HFI wird auch in zukünftige Intel® Xeon® Prozessoren integriert und in externen Produkten verwendet.

Angewendete Filter

Intel® Omni-Path Host-Fabric-Schnittstellenadapter 100er-Reihe, 1 Port, PCIe x8

  • 1 Anzahl der externen Ports
  • 58Gbps Datenübertragungsrate pro Port
Jetzt vergleichen

Intel® Omni-Path Host Fabric-Schnittstellen-Adapter, 1 Port PCIe x16

  • 1 Anzahl der externen Ports
  • 100Gbps Datenübertragungsrate pro Port
Jetzt vergleichen

Optimierungen und Erweiterungen

Ein großer Teil der verbesserten HPC-Anwendungsleistung und der geringen Latenz bei großen Implementierungen basiert auf den folgenden Verbesserungen:

Erweitertes Performance Scaled Messaging (PSM).

Die Anwendungssicht des Fabric leitet sich stark von der demonstrierten Skalierbarkeit der Intel® Omni-Path-Architektur (Intel® OPA und der kompatiblen Software auf Anwendungsebene) ab, da eine erweiterte Version der nächsten Generation der Performance Scaled Messaging (PSM) Bibliothek verwendet wird. Größere Bereitstellungen des US Department of Energy und anderer Kunden haben diesen Skalierbarkeitsvorteil bewiesen. PSM wurde speziell für die Message Passing Interface (MPI) entwickelt und ist im Vergleich zur Verwendung von Verben klein (nur ein Zehntel des Benutzer-Platzcodes). Die führt zu sehr hohen MPI- und Partitioned Global Address Space (PGAS) Mitteilungsraten (Kurznachrichteffizienz) im Vergleich zu InfiniBand* Verben.

„Verbindungsloses“ Weiterleiten von Meldungen

Intel® Omni-Path-Architektur (Intel® OPA) auf Basis eines verbindungslosen Designs etabliert keine Verbindungs-Adressinformationen zwischen Knoten, Kernen oder Prozessen, während eine herkömmliche Implementierung diese Informationen im Cache des Adapters hält. Im Ergebnis bietet das verbindungslose Design konsistente Latenz, unabhängig von Größe und Messaging-Partnern. Diese Implementierung bringt mehr Potenzial für die Skalierung der Leistung über einen großen Knoten oder Cluster hinweg, während die geringe Latenz beibehalten wird, wenn die Anwendung über den Cluster skaliert wird.

Benchmarks für Intel® Omni-Path-Architektur


Vollständige Geschwindigkeits-, Leistungs- und Konfigurationsdaten anschauen.

Zugehörige Videos