Artikel-ID: 000088387 Inhaltstyp: Kompatibilität Letzte Überprüfung: 20.05.2022

Warum können Caffe-Modelle direkt mit OpenVINO™ Toolkit-Inferenz-Engine-API verwendet werden?

BUILT IN - ARTICLE INTRO SECOND COMPONENT
Zusammenfassung

Unterstützte Frameworks für OpenVINO™ Toolkit Inference Engine API

Beschreibung
  • Inferenziertes Caffe-Modell direkt auf Intel® Neural Compute Stick 2 (Intel® NCS2).
  • Es konnte nicht ermittelt werden, warum das Caffe-Modell direkt mit OpenVINO™ Toolkit Inference Engine API verwendet werden kann, ohne in Intermediate Representation (IR) zu konvertieren.
Lösung

Nur begrenzte Caffe-Frameworks können direkt mit der OpenVINO™ Toolkit Inference Engine API verwendet werden.

Derzeit sind die von OpenVINO™ Toolkit Inference Engine API unterstützten Frameworks:

  • Zwischenrepräsentierende Darstellung (IR)
  • ONNX

Zugehörige Produkte

Dieser Artikel bezieht sich auf 2 Produkte

Der Inhalt dieser Seite ist eine Kombination aus menschlicher und computerbasierter Übersetzung des originalen, englischsprachigen Inhalts. Dieser Inhalt wird zum besseren Verständnis und nur zur allgemeinen Information bereitgestellt und sollte nicht als vollständig oder fehlerfrei betrachtet werden. Sollte eine Diskrepanz zwischen der englischsprachigen Version dieser Seite und der Übersetzung auftreten, gilt die englische Version. Englische Version dieser Seite anzeigen.