Ressourcenzentrum für künstliche Intelligenz
Whitepaper
In diesem Papier untersuchen wir FPGA-Minifloat-Implementierungen (Fließkomma-Darstellungen mit nicht standardmäßigen Exponenten- und Mantissagrößen) und zeigen die Verwendung einer Block-Fließkomma-Implementierung, die den Exponenten über viele Zahlen hinweg teilt, wodurch die für die Durchführung von Fließkommaoperationen erforderliche Logik reduziert wird.
In diesem Papier führen wir einen Domain-spezifischen Ansatz für Überlagerungen ein, der sowohl Software- als auch Hardware-Optimierungen nutzt, um die hochmoderne Leistung auf den FPGAs für die Beschleunigung von neuronalen Netzen zu erreichen.
Dieses Papier untersucht die Flexibilität und ihre Auswirkungen auf die FPGA-Designmethodik, physikalische Designtools und computergestütztes Design (CAD). Wir beschreiben den Grad der Flexibilität, die für effiziente Deep Learning-Beschleuniger erforderlich ist.
- Können FPGAs GPUs in der Beschleunigung von Deep Neural Networks der nächsten Generation schlagen. ›
Dieses Whitepaper untersucht die Zukunft der Deep Neutral Networks, einschließlich der Sparse-Netzwerke, niedriger Genauigkeit und extrem niedriger Genauigkeit und vergleicht die Leistung von Intel® Arria® 10 und Intel® Stratix® 10 FPGAs gegen NVIDIA Grafikprozessoren (GPUs).
- Beschleunigung von Deep Learning mit der OpenCL™ Plattform und
Dieses Whitepaper beschreibt, wie Intel® FPGAs die OpenCLTM-Plattform nutzen, um die Bildverarbeitungs- und Klassifizierungsanforderungen der heutigen bildzentrischen Welt zu erfüllen.
Dieses Whitepaper bietet einen detaillierten Blick auf die Architektur und Leistung unseres Deep Learning Accelerator Intellectual Property (IP) Kerns an.
Erstellen Sie leistungsstarke Computer-Vision-Anwendungen mit integrierter Deep-Learning-Inferenz
Das Intel® Vision Accelerator Design mit Intel Arria 10 FPGA bietet herausragende Leistung, Flexibilität und Skalierbarkeit für Deep-Learning- und Computer-Vision-Lösungen.
Lösungen
Beschreibt die Implementierung von neuronalen Netzwerken auf FPGAs.
Videos
Programmierer Einführung in die Intel® FPGA Deep Learning Acceleration Suite
Bereitstellung von Intel® FPGAs für Deep-Learning-Inferenz mit OpenVINO™ Toolkit
Demokratisierung von KI mit Intel® FPGAs
KI mit Intel FPGAs
Einführung in das maschinelle Lernen
HPC-Architektur mit Intel FPGAs
Neue KI-Technik auf Intel Client-Plattformen
Artikel
- Intel® FPGAs Power Microsoft* Projekt Brainwave KI ›
- Microsoft Turbocharges KI mit Intel FPGAs. Das könnten Sie auch ›
- Echtzeit-KI: Microsoft kündigt Vorschau von Projekt Brainwave an ›
- Intel FPGAs bringen Energie in Künstliche Intelligenz in Microsoft Azure* ›
- Maschinelles Lernen auf Intel FPGAs ›
- Die Pläne von Microsoft für FPGAs in Azure* sollten traditionellen Chiphersteller Sorgen bereiten ›
- FPGAs für Deep Learning-basierte Vision-Verarbeitung ›
- Mythos getätigt: Allgemeine CPUs können die Schulung von Deep Neural-Netzwerken nicht bekämpfen ›
- CERN openlab untersucht neue CPU/FPGA Verarbeitungslösungen ›
- Erkennen von Verständnis für die Verwendung von FPGAs ›
- Können FPGAs GPUs bei der Beschleunigung von Deep Learning der nächsten Generation schlagen? ›
- FPGA-basiertes KI System erkennt Gesichter mit 1.000 Bildern pro Sekunde ›
- Beschleunigung von Computer-Vision und Deep Learning mit OpenVINO™ Toolkit ›
- Intel® FPGAs mit KI-Inferencing in Echtzeit ›
- OpenVINO™ Toolkit und FPGAs: Ein Blick auf die FPGA-Zielsetzung dieses vielseitigen visuellen Computing-Toolkits ›