Zum Hauptinhalt wechseln
Support-Wissensdatenbank

Aufgetretener Fehler "Ausnahme ist beim Ausführen des Replacers "REPLACEMENT_ID" bei der Konvertierung einer benutzerdefinierten trainierten SSD MobileNetV2 in Intermediate Representation (IR) aufgetreten.

Inhaltstyp: Fehlerbehebung   |   Artikel-ID: 000058700   |   Letzte Überprüfung: 20.05.2022

Umgebung

Open-Source-OpenVINO™-Toolkit 2021.2  TensorFlow* 2.2 TensorFlow 1.15

Beschreibung

Vortrainiertes SSD MobileNetV2-Modell in IR konvertiert, kann aber kein individuell trainiertes Modell konvertieren.

  1. Exportiertes eingefrorenes Modelldiagramm:

    python object_detection/export_inference_graph.py \ --input_type=image_tensor \ --pipeline_config_path={PIPELINE_CONFIG_PATH} \ --output_directory="exported_model" \ --trained_checkpoint_prefix="/content/models/research/helmet_detector/model.ckpt-10000"

  2. Versucht, eingefrorenes Modelldiagramm mit dem Model Optimizer in IR zu konvertieren:

    python mo_tf.py \ --input_model ./exported_model/frozen_inference_graph.pb \ --tensorflow_use_custom_operations_config extensions/front/tf/ssd_v2_support.python \ --tensorflow_object_detection_api_pipeline_config ./helment_detector_tf1.config \ --input_shape [1,300,300,3] \ --reverse_input_channels \ --output_dir output_ncs \ --data_type FP16

  3. Fehler aufgetreten:

    [ FEHLER ] Die Ausnahme ist beim Ausführen des Replacers "REPLACEMENT_ID" aufgetreten(): Eine unerwartete Ausnahme ist beim Extrahieren von Attributen für Node StatefulPartitionedCall/Postprocessor/BatchMultiClassNonMaxSuppression/map/while aufgetreten. Ursprüngliche Ausnahmenachricht: "^Postprozessor/BatchMultiClassNonMaxSuppression/map/while/MultiClassNonMaxSuppression/SortByField/Assert/Assert"

Lösung

Verwenden Sie im Konvertierungsbefehl Model Optimizer die entsprechende benutzerdefinierte Operations-Konfigurationsdatei für SSD MobileNetV2-Modelle, die mit TensorFlow* 1 Modellen generiert werden: ssd_support_api_v1.15.. Auf der folgenden Seite finden Sie Anleitungen zur Konvertierung: Anleitungen zur Modellkonvertierung

python3 ./openvino/model-optimizer/mo_tf.py --input_model ./detector/exported_model/frozen_inference_graph.pb --tensorflow_use_custom_operations_config ./openvino/model-optimizer/extensions/front/tf/ssd_support_api_v1.15.000 --tensorflow_object_detection_api_pipeline_config ./detector/helment_detector_tf1.config --input_shape [1.300.300,3] --reverse_input_channels --data_type FP16

Zugehörige Produkte

Dieser Artikel bezieht sich auf 2-Produkte.

Nicht mehr lieferbare Produkte

Intel® DevCloud for the Edge

Disclaimer / Rechtliche Hinweise

Der Inhalt dieser Seite ist eine Kombination aus menschlicher und computerbasierter Übersetzung des originalen, englischsprachigen Inhalts. Dieser Inhalt wird zum besseren Verständnis und nur zur allgemeinen Information bereitgestellt und sollte nicht als vollständig oder fehlerfrei betrachtet werden. Sollte eine Diskrepanz zwischen der englischsprachigen Version dieser Seite und der Übersetzung auftreten, gilt die englische Version. Englische Version dieser Seite anzeigen.