Ressourcenzentrum für künstliche Intelligenz

Whitepaper

In diesem Papier untersuchen wir FPGA-Minifloat-Implementierungen (Fließkomma-Darstellungen mit nicht standardmäßigen Exponenten- und Mantissagrößen) und zeigen die Verwendung einer Block-Fließkomma-Implementierung, die den Exponenten über viele Zahlen hinweg teilt, wodurch die für die Durchführung von Fließkommaoperationen erforderliche Logik reduziert wird.

In diesem Papier führen wir einen Domain-spezifischen Ansatz für Überlagerungen ein, der sowohl Software- als auch Hardware-Optimierungen nutzt, um die hochmoderne Leistung auf den FPGAs für die Beschleunigung von neuronalen Netzen zu erreichen.

Dieses Papier untersucht die Flexibilität und ihre Auswirkungen auf die FPGA-Designmethodik, physikalische Designtools und computergestütztes Design (CAD). Wir beschreiben den Grad der Flexibilität, die für effiziente Deep Learning-Beschleuniger erforderlich ist.

Dieses Whitepaper untersucht die Zukunft der Deep Neutral Networks, einschließlich der Sparse-Netzwerke, niedriger Genauigkeit und extrem niedriger Genauigkeit und vergleicht die Leistung von Intel® Arria® 10 und Intel® Stratix® 10 FPGAs gegen NVIDIA Grafikprozessoren (GPUs).

  • Beschleunigung von Deep Learning mit der OpenCL™ Plattform und

Dieses Whitepaper beschreibt, wie Intel® FPGAs die OpenCLTM-Plattform nutzen, um die Bildverarbeitungs- und Klassifizierungsanforderungen der heutigen bildzentrischen Welt zu erfüllen.

Dieses Whitepaper bietet einen detaillierten Blick auf die Architektur und Leistung unseres Deep Learning Accelerator Intellectual Property (IP) Kerns an.

Erstellen Sie leistungsstarke Computer-Vision-Anwendungen mit integrierter Deep-Learning-Inferenz

Das Intel® Vision Accelerator Design mit Intel Arria 10 FPGA bietet herausragende Leistung, Flexibilität und Skalierbarkeit für Deep-Learning- und Computer-Vision-Lösungen.

Videos