Unterstützte Frameworks für OpenVINO™ Toolkit Inference Engine API
- Inferenziertes Caffe-Modell direkt auf Intel® Neural Compute Stick 2 (Intel® NCS2).
- Es konnte nicht ermittelt werden, warum das Caffe-Modell direkt mit OpenVINO™ Toolkit Inference Engine API verwendet werden kann, ohne in Intermediate Representation (IR) zu konvertieren.
Nur begrenzte Caffe-Frameworks können direkt mit der OpenVINO™ Toolkit Inference Engine API verwendet werden.
Derzeit sind die von OpenVINO™ Toolkit Inference Engine API unterstützten Frameworks:
- Zwischenrepräsentierende Darstellung (IR)
- ONNX