Intel® FPGA AI Suite
Erfahren Sie, wie Intel® FPGA AI Suite eingebetteten Systemen und Rechenzentren FPGA KI hinzufügen können.
"Die benutzerfreundliche Intel® FPGA AI Suite und die Intel® Distribution des OpenVINO™ Toolkit ermöglichten es Stryker*, optimierte Intel® FPGA IP für Deep-Learning-Inferenz zu entwickeln. Die Inferenz-IP wurde mit Intel® Quartus® Prime Software erfolgreich in einen Intel® FPGA integriert. Die mit der Suite bereitgestellten Beispieldesigns ermöglichten es dem Team, verschiedene Algorithmen für verschiedene Bildquellen schnell auszuwerten. Intel® FPGA AI Suite und die Intel® Distribution des OpenVINO Toolkits ermöglichen es Datenwissenschaftlern und FPGA Ingenieuren, nahtlos zusammenzuarbeiten, um optimierte Deep-Learning-Inferenz für medizinische Anwendungen zu entwickeln."
— Stryker Engineering Team
Übersicht
Intel FPGAs Inferenz in Echtzeit, geringe Latenz und energieeffiziente Deep-Learning-Inferenz in Kombination mit den folgenden Vorteilen ermöglichen:
- I/O-Flexibilität
- Neukonfiguration
- Einfache Integration in benutzerdefinierte Plattformen
- Lange Lebensdauer
Intel FPGA AI Suite wurde mit der Vision einer benutzerfreundlichen KI-Inferenz auf intel® FPGAs entwickelt. Die Suite ermöglicht es FPGA Designern, Technikern des maschinellen Lernens und Softwareentwicklern, optimierte FPGA KI-Plattformen effizient zu erstellen.
Utilitys in der Intel FPGA AI Suite beschleunigen die FPGA Entwicklung für KI-Inferenz mithilfe von vertrauten und beliebten Branchen-Frameworks wie TensorFlow* oder PyTorch* und OpenVINO Toolkit, während sie gleichzeitig robuste und bewährte FPGA Entwicklungsabläufe mit der Intel Quartus Prime Software nutzen.
Der Intel FPGA AI Suite Tool-Flow arbeitet mit dem OpenVINO Toolkit zusammen, einem Open-Source-Projekt zur Optimierung der Inferenz auf einer Vielzahl von Hardware-Architekturen. Das OpenVINO-Toolkit nutzt Deep-Learning-Modelle aus allen wichtigen Deep-Learning-Frameworks (wie TensorFlow, PyTorch, Keras*) und optimiert diese zur Inferenz auf einer Vielzahl von Hardware-Architekturen, einschließlich verschiedener CPUs, CPU+ GPU und FPGAs.
Erfahren Sie, wie Intel FPGA AI Suite embedded Systemen und Rechenzentren FPGA KI hinzufügen können.
Wenden Sie sich an Intel Sales, um Preise und Verfügbarkeit zu erhalten ›
Wichtige Funktionen
Hohe Leistung
Intel® Agilex™ FPGAs der M-Reihe können bei 90 % FPGA Auslastung eine theoretische Maximalleistung von 38 INT8 TOPS bzw. 3679 Resnet-50 Einzelbildern pro Sekunde erzielen.
Einfache Systemintegration
Unterstützt die Integration mit benutzerdefinierten IP-Adressen wie ADCs/DACs, Videos und Ethernet-Lösungen, um den kleinsten Platzbedarf und die niedrigste Latenz zu erzielen.
Geringe Gesamtbetriebskosten
Minimieren Sie die TCO mit hochgradig skalierbarer, anpassbarer, feiner Granularität der KI-Inferenz über ein breites Spektrum von Leistungs- und Batchgrößen.
Einfache und standardmäßige Abläufe
Erstellen und hinzufügen von KI-Inferenz-IP zu aktuellen oder neuen FPGA Designs mit Intel Quartus Prime Software oder Platform Designer.
KI Front-End-Unterstützung
Nutzen Sie Ihr lieblings-KI-Front-End wie TensorFlow, Caffe, Pytorch, MXNet, Keras und ONNX.
optimierung für OpenVINO
OpenVINO Toolkit optimiert die Leistung und Denkleistung und minimiert gleichzeitig den Logik- und Speicherbedarf.
FPGA KI-Inferenz-Entwicklungsfluss
Der KI-Inferenzentwicklungsfluss ist in Abbildung 1 dargestellt. Der Flow kombiniert nahtlos einen Hardware- und Software-Workflow in einen allgemeinen End-to-End-KI-Workflow. Die Schritte sind wie folgt:
1. Model Optimizer im OpenVINO Toolkit erstellt Zwischendarstellungs-Netzwerkdateien (.xml) und Gewichtungen und Vorurteile-Dateien (.bin).
2. Intel FPGA AI Suite Compiler wird verwendet, um:
- Stellen Sie geschätzte Bereiche oder Leistungsmetriken für eine bestimmte Architekturdatei bereit oder produzieren Sie eine optimierte Architekturdatei. (Die Architektur bezieht sich auf Inferenz-IP-Parameter wie Größe des PE-Arrays, Präzisionen, Aktivierungsfunktionen, Schnittstellenbreiten, Fenstergrößen usw.)
- Kompilieren Sie Netzwerkdateien in einer .bin-Datei mit Netzwerkpartitionen für FPGA und CPU (oder beides) sowie Gewichten und Vorurteilen.
3. Die kompilierte .bin-Datei wird zur Laufzeit von der Benutzer-Inferenz-Anwendung importiert.
- Runtime-Programmierschnittstellen (APIs) umfassen Inferenz-Engine-API (Runtime-Partitions-CPU und FPGA, Zeitplan-Inferenz) und FPGA KI (DDR-Speicher, FPGA Hardware-Blocks).
- Referenzdesigns zeigen die grundlegenden Vorgänge beim Import von .bin und der Ausführung von Inferenz auf FPGA mit unterstützen Host-CPUs (x86 und Arm* Prozessoren).
Abbildung 1: Intel FPGA AI Suite Entwicklungsfluss
Notizen:
Unterstützte Geräte: Intel® Agilex™ FPGA, Intel® Cyclone® 10 GX FPGA, Intel® Arria® 10 FPGA
Getestete Netzwerke und Aktivierungsfunktionen1:
- ResNet-50, MobileNet v1/v2/v3, YOLO v3, TinyYOLO v3, UNET
- ReLU, 2D Conv, BatchKoppel, EltWise Mult, voll angeschlossen, Klemme, pReLU, SoftMax
Architekturen auf Systemebene
Intel FPGA AI Suite ist flexibel und für eine Vielzahl von Anwendungsfällen auf Systemebene konfigurierbar. Typische Möglichkeiten, die FPGA AI Suite IP in ein System zu integrieren, finden Sie in Abbildung 2. Die Anwendungsfälle umfassen verschiedene vertikale Märkte, von optimierten Embedded-Plattformen bis hin zu Anwendungen mit Host-CPUs (Intel® Core™ Prozessoren, Arm-Prozessoren) bis zu Rechenzentrumsumgebungen mit Intel® Xeon® Prozessoren und auch zu hostfreien Anwendungen (oder Softprozessoren wie Nios® V-Prozessoren).
Abbildung 2: Typische Intel FPGA AI Suite system-Topologien
CPU-Offload
KI-Beschleuniger
Multifunktions-CPU-Offload
KI-Beschleuniger + zusätzliche Hardwarefunktion
Aufnahme / Inline-Verarbeitung + KI
KI-Beschleuniger + direkte Aufnahme und Datenstreaming
Embedded-SoC-FPGA + KI
KI-Beschleuniger + direkte Aufnahme und Datenstreaming + Hardwarefunktion +
Embedded Arm- oder Nios® II- oder Nios V-Prozessoren
Videos
Übersicht über Intel FPGA AI Suite
Sehen Sie sich dieses Video an, um sich mit dem Designablauf für Intel FPGA AI Suite vertraut zu machen.
Demovideo zur Intel® FPGA AI Suite-Installation
Die Installation Intel FPGA AI Suite ist einfach. Sehen Sie sich dieses Video an, um eine Demo der Installation zu sehen.
Demo-Video Intel® FPGA AI Suite Kompilierung
Sehen Sie sich eine kurze Demo der Intel FPGA AI Suite an, die ein vortrainiertes RESNET-50-Modell kompiliert und die Ausgabeinferenzergebnisse erzielt.
Intel FPGA AI Suite ist ab sofort zu Preisen und Bewertungen verfügbar
Referenzdesigns mit vorgefertigten FPGA Designbeispielen, die für eine erste Evaluierung auf dem Terasic DE10-Agilex Development Board und Intel Arria 10 SoC Development Kit sowie für die Weiterentwicklung benutzerdefinierter Designs auf Systemebene verfügbar sind.
Produkt- und Leistungsinformationen
Der Inhalt dieser Seite ist eine Kombination aus menschlicher und computerbasierter Übersetzung des originalen, englischsprachigen Inhalts. Dieser Inhalt wird zum besseren Verständnis und nur zur allgemeinen Information bereitgestellt und sollte nicht als vollständig oder fehlerfrei betrachtet werden. Sollte eine Diskrepanz zwischen der englischsprachigen Version dieser Seite und der Übersetzung auftreten, gilt die englische Version. Englische Version dieser Seite anzeigen.