OpenVINO™ Model Optimizer unterstützt keine TensorFlow* Lite Modelle, die in IR konvertiert werden sollen
Es konnte nicht ermittelt werden, ob TensorFlow Lite-Modelle auf Intel® NCS2 abgeleitet werden können.
Es ist nur erlaubt, das ONNX*-Modell oder das Intermediate Representation (IR) direkt in OpenVINO™ Inferenz-Engine (einschließlich MYRIAD) zu laden. Während für Model Optimizer, unterstützt es die .tflite-Datei nicht nativ in das IR-Format konvertieren.
Zusammenfassend kann gesagt werden, dass OpenVINO™ Model Optimizer die Konvertierung von Tensorflow Lite Modellen in IR nicht unterstützt.