Artikel-ID: 000093057 Inhaltstyp: Produktinformationen und Dokumente Letzte Überprüfung: 20.12.2022

Ist es möglich, TensorFlow* Lite Modelle mit Intel® Neural Compute Stick 2 (Intel® NCS2) auszuführen?

BUILT IN - ARTICLE INTRO SECOND COMPONENT
Zusammenfassung

OpenVINO™ Model Optimizer unterstützt keine TensorFlow* Lite Modelle, die in IR konvertiert werden sollen

Beschreibung

Es konnte nicht ermittelt werden, ob TensorFlow Lite-Modelle auf Intel® NCS2 abgeleitet werden können.

Lösung

Es ist nur erlaubt, das ONNX*-Modell oder das Intermediate Representation (IR) direkt in OpenVINO™ Inferenz-Engine (einschließlich MYRIAD) zu laden. Während für Model Optimizer, unterstützt es die .tflite-Datei nicht nativ in das IR-Format konvertieren.

Zusammenfassend kann gesagt werden, dass OpenVINO™ Model Optimizer die Konvertierung von Tensorflow Lite Modellen in IR nicht unterstützt.

Zugehörige Produkte

Dieser Artikel bezieht sich auf 1 Produkte

Der Inhalt dieser Seite ist eine Kombination aus menschlicher und computerbasierter Übersetzung des originalen, englischsprachigen Inhalts. Dieser Inhalt wird zum besseren Verständnis und nur zur allgemeinen Information bereitgestellt und sollte nicht als vollständig oder fehlerfrei betrachtet werden. Sollte eine Diskrepanz zwischen der englischsprachigen Version dieser Seite und der Übersetzung auftreten, gilt die englische Version. Englische Version dieser Seite anzeigen.