Konvertierung von TensorFlow-Objekterkennungs-API-Modellen zur Inferenz auf dem Intel® Neural Compute Stick 2 (Intel® NCS 2)
Folgen Sie dem Leitfaden für erste Schritte für den Intel® NCS 2, um das OpenVINO™ Toolkit zu installieren und Ihren Intel® NCS 2 zu konfigurieren.
Hinweis | Der Erste-Schritte-Leitfaden und dieser Artikel gelten auch für Benutzer mit dem ursprünglichen Intel® Movidius™ Neural Compute Stick. |
Das Skript mo_tf.py befindet sich im Verzeichnis ~/intel/openvino/deployment_tools/model_optimizer . Die folgenden Parameter müssen bei der Konvertierung Ihres Modells in Intermediate Representation (IR) zur Inferenz mit dem Intel® NCS 2 angegeben werden.
--input_model <path_to_frozen.pb>
- Weitere Informationen finden Sie unter Einfrieren benutzerdefinierte Modelle in Python.
--tensorflow_use_custom_operations_config <path_to_subgraph_replacement_configuration_file.json>
- Die Konfigurationsdateien befinden sich im Verzeichnis ~/intel/openvino/deployment_tools/model_optimizer/extensions/front/tf . Wählen Sie eine Konfigurationsdatei, die der Topologie Ihres Modells entspricht. Sehen Sie sich die Konvertierung eines Modells für eine Liste von Konfigurationsdateien an.
--tensorflow_object_detection_api_pipeline_config <path_to_pipeline.config>
--reverse_input_channels
- Dieser Parameter ist erforderlich, wenn Sie das konvertierte TensorFlow Object Detection API-Modell mit den Inference Engine-Beispielanwendungen verwenden.
--data_type FP16
- Gibt das Gleitkommaformat mit halber Präzision an, das auf dem Intel® NCS 2 ausgeführt werden soll
Beispiel für einen Model Optimizer-Befehl:
python3 ~/intel/openvino/deployment_tools/model_optimizer/mo_tf.py --input_model frozen_model.pb --tensorflow_use_custom_operations_config ~/intel/openvino/deployment_tools/model_optimizer/extensions/front/tf/ssd_v2_support.json --tensorflow_object_detection_api_pipeline_config pipeline.config --reverse_input_channels --data_type FP16
Weitere Informationen zum Model Optimizer finden Sie in der Dokumentation OpenVINO™ Toolkit.