Konvertierung von TensorFlow-Objekterkennungs-API-Modellen zur Inferenz auf dem Intel® Neural Compute Stick 2 (Intel® NCS 2)

Dokumentation

Fehlerbehebung

000055228

06.06.2023

Folgen Sie dem Leitfaden für erste Schritte für den Intel® NCS 2, um das OpenVINO™ Toolkit zu installieren und Ihren Intel® NCS 2 zu konfigurieren.

Hinweis Der Erste-Schritte-Leitfaden und dieser Artikel gelten auch für Benutzer mit dem ursprünglichen Intel® Movidius™ Neural Compute Stick.

Das Skript mo_tf.py befindet sich im Verzeichnis ~/intel/openvino/deployment_tools/model_optimizer . Die folgenden Parameter müssen bei der Konvertierung Ihres Modells in Intermediate Representation (IR) zur Inferenz mit dem Intel® NCS 2 angegeben werden.

--input_model <path_to_frozen.pb>

--tensorflow_use_custom_operations_config <path_to_subgraph_replacement_configuration_file.json>

  • Die Konfigurationsdateien befinden sich im Verzeichnis ~/intel/openvino/deployment_tools/model_optimizer/extensions/front/tf . Wählen Sie eine Konfigurationsdatei, die der Topologie Ihres Modells entspricht. Sehen Sie sich die Konvertierung eines Modells für eine Liste von Konfigurationsdateien an.

--tensorflow_object_detection_api_pipeline_config <path_to_pipeline.config>

--reverse_input_channels

  • Dieser Parameter ist erforderlich, wenn Sie das konvertierte TensorFlow Object Detection API-Modell mit den Inference Engine-Beispielanwendungen verwenden.

--data_type FP16

  • Gibt das Gleitkommaformat mit halber Präzision an, das auf dem Intel® NCS 2 ausgeführt werden soll

Beispiel für einen Model Optimizer-Befehl:

python3 ~/intel/openvino/deployment_tools/model_optimizer/mo_tf.py --input_model frozen_model.pb --tensorflow_use_custom_operations_config ~/intel/openvino/deployment_tools/model_optimizer/extensions/front/tf/ssd_v2_support.json --tensorflow_object_detection_api_pipeline_config pipeline.config --reverse_input_channels --data_type FP16

Weitere Informationen zum Model Optimizer finden Sie in der Dokumentation OpenVINO™ Toolkit.