Optimierung von neuronalen Netzwerkmodellen für die Ausführung auf Inference Engine.
DAS ONNX*-Modell kann mit dem Model Optimizer-Tool in ein IR-Format konvertiert werden. Es kann nicht validiert werden, ob eine Konvertierung vom IR-Format zurück in das ONNX*-Dateiformat möglich ist.
Der OpenVINO™-Workflow unterstützt die Konvertierung vom IR-Format zurück zu ONNX* oder einem anderen Dateiformat nicht. Der Modelloptimierer lädt ein Modell in den Speicher, liest es, baut die interne Darstellung des Modells, optimiert es und erstellt das IR-Format, das das einzige Format ist, das die Inferenz-Engine akzeptiert.