Zum Hauptinhalt wechseln
Support-Wissensdatenbank

Konvertierung von TensorFlow-Objekterkennungs-API-Modellen zur Inferenz auf dem Intel® Neural Compute Stick 2 (Intel® NCS 2)

Inhaltstyp: Fehlerbehebung   |   Artikel-ID: 000055228   |   Letzte Überprüfung: 06.06.2023

Folgen Sie dem Leitfaden für erste Schritte für den Intel® NCS 2, um das OpenVINO™ Toolkit zu installieren und Ihren Intel® NCS 2 zu konfigurieren.

Hinweis Der Erste-Schritte-Leitfaden und dieser Artikel gelten auch für Benutzer mit dem ursprünglichen Intel® Movidius™ Neural Compute Stick.

Das Skript mo_tf.py befindet sich im Verzeichnis ~/intel/openvino/deployment_tools/model_optimizer . Die folgenden Parameter müssen bei der Konvertierung Ihres Modells in Intermediate Representation (IR) zur Inferenz mit dem Intel® NCS 2 angegeben werden.

--input_model <path_to_frozen.pb>

--tensorflow_use_custom_operations_config <path_to_subgraph_replacement_configuration_file.json>

  • Die Konfigurationsdateien befinden sich im Verzeichnis ~/intel/openvino/deployment_tools/model_optimizer/extensions/front/tf . Wählen Sie eine Konfigurationsdatei, die der Topologie Ihres Modells entspricht. Sehen Sie sich die Konvertierung eines Modells für eine Liste von Konfigurationsdateien an.

--tensorflow_object_detection_api_pipeline_config <path_to_pipeline.config>

--reverse_input_channels

  • Dieser Parameter ist erforderlich, wenn Sie das konvertierte TensorFlow Object Detection API-Modell mit den Inference Engine-Beispielanwendungen verwenden.

--data_type FP16

  • Gibt das Gleitkommaformat mit halber Präzision an, das auf dem Intel® NCS 2 ausgeführt werden soll

Beispiel für einen Model Optimizer-Befehl:

python3 ~/intel/openvino/deployment_tools/model_optimizer/mo_tf.py --input_model frozen_model.pb --tensorflow_use_custom_operations_config ~/intel/openvino/deployment_tools/model_optimizer/extensions/front/tf/ssd_v2_support.json --tensorflow_object_detection_api_pipeline_config pipeline.config --reverse_input_channels --data_type FP16

Weitere Informationen zum Model Optimizer finden Sie in der Dokumentation OpenVINO™ Toolkit.

Zugehörige Produkte

Dieser Artikel bezieht sich auf 2-Produkte.

Disclaimer / Rechtliche Hinweise

Der Inhalt dieser Seite ist eine Kombination aus menschlicher und computerbasierter Übersetzung des originalen, englischsprachigen Inhalts. Dieser Inhalt wird zum besseren Verständnis und nur zur allgemeinen Information bereitgestellt und sollte nicht als vollständig oder fehlerfrei betrachtet werden. Sollte eine Diskrepanz zwischen der englischsprachigen Version dieser Seite und der Übersetzung auftreten, gilt die englische Version. Englische Version dieser Seite anzeigen.