Intel® Movidius™ Myriad™ X Vision Processing Unit (VPU) mit Neural Compute Engine
Mit der Movidius-Produktreihe von Vision Processing Units (VPUs) von Intel können Sie Ihre Bildgebungs-, Computer-Vision- und Maschinenintelligenz-Anwendungen in Netzwerk-Edge-Geräte integrieren.
Intel® Movidius™ Myriad™ X Vision Processing Unit (VPU) auf einen Blick
Funktionsmerkmale | Vorteile |
---|---|
Neural Compute Engine |
Mit diesem dedizierten On-Chip-Beschleuniger für tiefe neuronale Netzwerke liefert die Intel® Movidius™ Myriad™ X VPU eine DNN-Inferenzleistung von über 1 Billion Rechenoperationen pro Sekunde.1 Führen Sie tiefe neuronale Edge-Netzwerke in Echtzeit aus, ohne den Stromverbrauch oder die Genauigkeit zu beeinträchtigen. |
16 programmierbare 128-Bit-VLiW-Vektorprozessoren |
Führen Sie mehrere gleichzeitige Bildgebungs- und Vision-Anwendungspipelines mit der Flexibilität von 16 Vektorprozessoren aus, die für Computer-Vision-Workloads optimiert sind. |
16 konfigurierbare MIPI-Lanes |
Verbinden Sie bis zu 8 RGB-Kameras mit HD-Auflösung direkt mit der Intel® Movidius™ Myriad™ X VPU zur Unterstützung von bis zu 700 Millionen Pixeln pro Sekunde beim Bildsignalverarbeitungsdurchsatz. |
Erweiterte Vision-Beschleuniger |
Nutzen Sie über 20 Hardwarebeschleuniger, um beispielsweise Verfahren des optischen Flusses und der Stereotiefe auszuführen, ohne zusätzlichen Rechenaufwand zu verursachen. Beispielsweise kann der neue Stereotiefenbeschleuniger gleichzeitig 6 Kameraeingänge (3 Stereopaare) mit einer Auflösung von 720 Pixeln und einer Bildrate von 60 Hz verarbeiten. |
2,5 MB homogener On-Chip-Arbeitsspeicher |
Die zentralisierte On-Chip-Speicherarchitektur ermöglicht eine interne Bandbreite von bis zu 400 GB/s, minimiert die Latenz und reduziert den Stromverbrauch durch Minimierung der Datenübertragung außerhalb des Chips. |
Hervorragende Leistung bei extrem geringem Stromverbrauch
Die Intel® Movidius™ Myriad™ X VPU bietet hervorragende Leistung in der Computer-Vision und in Anwendungen der tiefen neuronalen Netzwerkinferenzen. Als Mitglied der Movidius VPU-Produktreihe, die für ihren extrem geringen Stromverbrauch bekannt ist, kann die Intel® Movidius™ Myriad™ X VPU eine Gesamtleistung von über 4 Billionen Rechenoperationen pro Sekunde (TOPS) liefern.2 Mit neuen Leistungsverbesserungen ist die Intel® Movidius™ Myriad™ X VPU eine energieeffiziente Lösung, die Geräte wie Drohnen, Smart-Kameras, Smart-Home-Systeme, Sicherheitssysteme, VR-/AR-Headsets und 360°-Kameras mit fortschrittlichen Anwendungen für Computer-Vision und künstliche Intelligenz ausstattet.
Neue Generation tiefer neuronaler Netzwerkleistung
Intel hat einen komplett neuen tiefen neuronalen Netzwerkprozessor in die Intel® Movidius™ Myriad™ X VPU-Architektur integriert: die Neural Compute Engine. Die Neural Compute Engine wurde speziell für den Betrieb von tiefen neuronalen Netzwerken bei hoher Geschwindigkeit und geringem Leistungsbedarf entwickelt und ermöglicht der Intel® Movidius™ Myriad™ X VPU eine Rechenleistung von über 1 TOPS für tiefe neuronale Netzwerkinferenzen.1 Die Neural Compute Engine ist Teil der energieeffizienten Movidius VPU-Architektur, die den Leistungsbedarf minimiert, indem Datenbewegungen auf dem Chip reduziert werden. Basierend auf der Intel® Movidius™ Myriad™ X VPU-Architektur beträgt die maximale Anzahl neuronaler Netzwerkinferenzverfahren pro Sekunde, die die Neural Compute Engine in Kombination mit den 16 SHAVE-Cores (916 Milliarden Rechenoperationen pro Sekunde) erreichen kann, mehr als das 10-fache der maximalen Anzahl neuronaler Netzwerkinferenz-Rechenoperationen pro Sekunde, die von den SHAVE-Prozessoren der Movidius Myriad 2 VPU erreicht werden können (80 Milliarden Rechenoperationen pro Sekunde), um neuronale Netzwerkinferenzen auszuführen.1
Benutzerdefinierbare Bildgebungs- und Vision-Pipelines
Die Movidius-Produktreihe von VPUs bietet schon immer eine einzigartige, flexible Architektur für Bildverarbeitung, Computer-Vision und tiefe neuronale Netzwerke. Die Architektur bietet einen modularen Ansatz für die Konfiguration von Bildgebungs- und Vision-Workloads, da sie eine Reihe von Bildgebungs- und Vision-Hardwarebeschleunigern wie Stereotiefe oder Neural Compute Engine mit einer Reihe von C-programmierbaren VLIW-Vektorprozessoren kombiniert, die alle auf einen gemeinsamen On-Chip-Speicher zugreifen. Dieser Ansatz ermöglicht eine hervorragende Bildsignalverarbeitung (ISP), ohne dass Speichervorgänge für eine optimale Energieeffizienz durchgeführt werden müssen, sowie verschachtelte Pipelines für Computer-Vision- und tiefe neuronale Netzwerkanwendungen, alle mit einer Datenflussmethode, die den Leistungsbedarf durch Minimierung der Datenbewegung reduziert. Movidius-VPUs bieten ein optimales Gleichgewicht zwischen Programmierbarkeit und Leistung bei geringem Stromverbrauch.
Support für 8-HD-Sensoren und 4K-Encoding
Die Intel® Movidius™ Myriad™ X VPU verfügt über 16 MIPI-Lanes, die bis zu 8 RGB-Sensoren mit HD-Auflösung unterstützen, die direkt angeschlossen werden können. Der Inline-ISP mit hohem Durchsatz stellt sicher, dass Streams mit hoher Geschwindigkeit verarbeitet werden, während neue Hardware-Encoder 4K-Auflösungen mit Bildraten von 30 Hz (H.264/H.265) und 60 Hz (M/JPEG) unterstützen. Weitere Schnittstellen umfassen USB 3.1 und PCIe* Gen 3.
Software Development Kit (SDK) und Tools
Die Intel® Movidius™ Myriad™ X VPU wird mit einem reichhaltigen SDK geliefert, das alle Softwareentwicklungs-Frameworks, -Tools, -Treiber und -Bibliotheken enthält, um benutzerdefinierte Bildgebungs-, Computer-Vision- und Deep-Learning-Anwendungen auf der Intel® Movidius™ Myriad™ X VPU zu implementieren. Das SDK umfasst außerdem ein spezielles FLIC-Framework mit einem Plug-in-Konzept für die Entwicklung von Anwendungspipelines, einschließlich Bildverarbeitung, Computer-Vision und Deep Learning. Mit diesem Framework können sich Entwickler auf die Verarbeitung konzentrieren und die Optimierung des Datenflusses den Tools überlassen. Zur Entwicklung tiefer neuronaler Netzwerke enthält das SDK einen Compiler für neuronale Netzwerke, mit dem Entwickler neuronale Netzwerke schnell von gängigen Frameworks wie Caffe* und TensorFlow* mit einem automatisierten Konvertierungs- und Optimierungstool portieren können, das die Leistung maximiert und doch die Genauigkeit des Netzwerkmodells beibehält.