FPGAi
Beschleunigen Sie die KI-Aktivierung Ihrer benutzerdefinierten Lösung. Erfahren Sie, wie FPGAi Sie in die Lage versetzt, KI in Ihrer benutzerdefinierten Lösung zu aktivieren und einzusetzen, um niedrige Latenz, Energieeffizienz und Agilität zu erreichen, die für kontinuierliche Innovationen erforderlich sind.
Altera FPGAs läuten eine neue Ära der KI ein
Die Verschmelzung von FPGAs und KI ist nicht nur eine Evolution – es ist eine Revolution.
Altera läutet die neue Ära von FPGAi mit einer leistungsstarken und KI-gestützten FPGA Fabric ein. Unsere eng integrierte programmierbare Logik und KI ermöglichen Datenanpassung in Echtzeit und autonome Entscheidungsfindung, wodurch Systeme in die Lage versetzt werden, die Komplexität der nächsten Generation zu bewältigen.
Warum FPGAs für KI?
KI-Workloads werden immer komplexer und anspruchsvoller, daher ist die Wahl der richtigen Hardware für die KI-Beschleunigung entscheidend. Erfahren Sie, wie FPGAs leistungsstarke und flexible Lösungen für KI-Anwendungen anbieten kann.
Kundenfallstudie: VITEC integriert ein KI-Modell und setzt es ein
Lesen Sie, wie VITEC die FPGA AI Suite einsetzt, um zusammenzuarbeiten und ein KI-Modell erfolgreich in einem bestehenden Videoverarbeitungs-FPGA-Gerät bereitzustellen.
Warum FPGAs für die Implementierung von Edge-KI- und Machine-Learning-Anwendungen gut geeignet sind
Lesen Sie über neue Anwendungsfälle für FPGA-basierte KI-Inferenz am Edge sowie über benutzerdefinierte KI-Anwendungen sowie Software- und Hardwarelösungen von Intel für Edge FPGA-KI.
FPGA im Vergleich zu GPU bei Deep-Learning-Anwendungen
Es gibt zwar nicht die eine Architektur, die für alle Machine- und Deep-Learning-Anwendungen geeignet, doch können FPGAs gegenüber GPUs und anderen Arten von Hardware deutliche Vorteile bieten.
Quantisierte neuronale Netzwerke für FPGA-Inferenz
Quantisierung mit geringer Präzision für neuronale Netzwerke unterstützt KI-Anwendungsspezifikationen, indem sie bei gleichem Platzbedarf für einen höheren Durchsatz sorgt oder die Ressourcenauslastung reduziert.
FPGAi-Anwendungen
Edge-KI
FPGAs eignen sich besonders für Edge-KI in verschiedenen Anwendungen in den Bereichen Industrie, Medizin, Test- und Messtechnik, Luft- und Raumfahrt, Verteidigung und Rundfunk. Integrierte Arm-Prozessoren, Nios®-V-Softprozessoren und verschiedene I/O-Protokolle, die unterschiedliche Daten am Edge unterstützen, gepaart mit deterministisch geringer Latenz, geringem Stromverbrauch und Langlebigkeit, bieten FPGAs zusätzliche Vorteile am Edge.
GenAI oder Benutzerdefiniert
Die Agilex™ 7 FPGA M-Reihe kann für kundenspezifische transformerbasierte LLM-Inferenz verwendet werden und übertrifft GPUs in Leistung und Größe.
Mit 32 GB HBM2E mit 820 Gbit/s und bis zu 512 GB DDR5 mit 224 Gbit/s ist es ideal für LLMs und KV-Caches. Highspeed-SERDES (116 Gbit/s), 800-GbE-Support und PCIe 5.0 (64 Gbit/s) sorgen für schnelle Skalierung und Datenübertragung. Die DSPs des Geräts mit variabler Präzision unterstützen KI-inferenzfreundliche Formate wie FP16, bfloat16 und INT8. Die Hyperflex-Architektur™ ermöglicht einen 500-MHz+-Betrieb für schnelle KI-Inferenz.
KI-Anhängen
Mit 800-GbE-Unterstützung können maßgeschneiderte Lösungen für KI-Cluster-Ersteller entwickelt werden, wobei FPGAs als FPGA KI-NICs fungieren, um die Datenaufnahme, den Jitter und die Netzwerküberlastung der GPUs während des Trainings oder der Inferenz zu reduzieren. Benutzerdefinierte und offene Standardoptionen für die horizontale und horizontale Skalierung werden unterstützt.
FPGAs eignen sich hervorragend für die KI-Vorverarbeitung, bei der Daten formatiert und gefiltert werden, um sie effizient für das KI-Training oder die Inferenz zu verwenden.
FPGAs können private Unternehmensdatenbanken für einen schnellen Datenabruf beschleunigen.
Potenzial für Lösungen: Hochleistungsfähige FPGAs
Der Agilex™ 7 FPGA der M-Reihe mit 89 INT8 TOPS, integrierter HBM2e-Speicherkapazität (32 GB und 820 Gbit/s Bandbreite) und einem gehärteten DDR5/LPDDR5-Speichercontroller (unterstützt 5600 MBPs) verringert Engpässe bei speichergebundenen KI-Modellen wie Generative AI LLM-basierten Transformer-Modellen.
Die Agilex™ 5 FPGA-Bausteine mit bis zu 56 INT8 TOPs verfügen über die erste FPGA Fabric, die mit KI-Tensor-Blöcken für eine höhere Rechendichte ausgestattet ist. Die Tensor-Blöcke können 20 BlockFP16- oder INT8-Multiplikations-Akkumulationen in einem Taktzyklus durchführen, was zu einer 5-fachen Steigerung der Rechendichte im Vergleich zu anderen Geräten im Agilex FPGA-Portfolio führt.
Benutzerfreundlichkeit für Entwickler: Nahtlose vortrainierte Modellkonvertierung und automatische Optimierung für FPGA Ressourcen
FPGA AI Suite bietet eine Konvertierung des vortrainierten Modells auf Knopfdruck in KI-Inferenz-IP mit OpenVINO. Das Auto-Optimizer-Tool der Suite durchsucht den Designraum für eine optimale Implementierung von KI-Modellen.
Die Software-Emulation der FPGA AI Suite IP ist über die OpenVINO Plugin-Schnittstelle zugänglich, was eine schnelle Bewertung der Genauigkeit der FPGA AI IP ohne Hardware ermöglicht (nur für Agilex™ 5 FPGA verfügbar).
FPGA AI Suite integriert die Quartus® Prime Design Software und den Platform Designer, um die Einbindung von KI-Inferenz-IP zu vereinfachen.
Anwendungsagilität: Kontinuierliche Innovation ermöglichen
Ingenieure können KI-Lösungen mit FPGAs entwickeln und weiterentwickeln, um auf dem neuesten Stand der Technik zu bleiben, indem sie dieReprogrammierbarkeitder Geräte 1 verlängerte Produktlebenszyklen und vielseitige E/A-Optionen nutzen, die kontinuierliche Innovation und Anpassung ermöglichen.
FPGAs sind von Natur aus für KI geeignet. Die FPGAs Tausenden von DSP-Blöcken, Speicherhierarchien und einer breiten I/O-Unterstützung ermöglichen die Anpassung von Designs und den Aufbau von KI-Netzwerken von Grund auf, um eine optimale Leistung zu erzielen.
KI-Modelle unterschiedlicher Größe können effizient implementiert werden – von energieeffizientem TinyML über mittlere und große Modelle am Edge bis hin zu GenAI LLM Transformer-Modellen in Rechenzentren.
Partner zur Beschleunigung von KI at the Edge
Edge-KI mit Agilex™ 7 FPGAs
KI-Inferenz am Netzwerkrand
Ressourcen entdecken, um jetzt loszulegen
Intel® FPGA AI Suite
Beschleunigen Sie Ihre FPGA-Entwicklung für KI-Inferenz mit Frameworks wie TensorFlow oder PyTorch und dem OpenVINO Toolkit und nutzen Sie mit der Intel Quartus Prime Software robuste und bewährte FPGA-Entwicklungsabläufe.
Weitere Infos
Intel® Distribution des OpenVINO™ Toolkit
Ein Open-Source-Toolkit, mit dem es einfach ist, einmal zu schreiben und überall bereitzustellen.
Weitere Infos
Sie möchten mehr erfahren?
Lassen Sie uns wissen, wie wir Ihnen mit Ihren Fragen helfen können.
Kontakt