Zum Hauptinhalt wechseln
Support-Wissensdatenbank

Inferenz mit konvertiertem YOLOv5s Intermediate Representation (IR)-Modell kann nicht ausgeführt werden

Inhaltstyp: Fehlerbehebung   |   Artikel-ID: 000093870   |   Letzte Überprüfung: 13.11.2023

Beschreibung

Es kann nicht ermittelt werden, wie das YOLOv5s- und YOLOv7-tiny-Modell auf Raspberry* Pi 4B mit Intel® NCS2 ausgeführt werden soll.

Lösung

  1. Klon YOLOv5 GitHub*-Repository:
    git clone https://github.com/ultralytics/yolov5
  2. Installationsvoraussetzungen :
    cd yolov5
    pip install -r requirements.txt
  3. Herunterladen YOLOv5s PyTorch-Modell von vortrainierten Checkpoints.
  4. Konvertieren YOLOv5s PyTorch-Modell in das ONNX* Format:
    python export.py --weights yolov5s.pt --img 640 --batch 1 --include onnx
  5. Konvertieren Sie das YOLOv5s ONNX*-Modell mit dem Paket openvino-dev[onnx] pip mit dem folgenden Befehl vom offiziellen in das Intermediate Representation (IR)-Format:
    mo --input_model yolov5s.onnx --output <output_nodes> --data_type FP16 --scale_values=images[255] --input_shape=[1,3,640,640] --input=images
  6. Führen Sie die Python-Demo zur Objekterkennung unter Verwendung des YOLOv5s IR-Modells mit dem folgenden Befehl aus:
    python3 object_detection_demo.py -at yolov4 -d MYRIAD -m yolov5s.xml -i <path_to_input>

Zugehörige Produkte

Dieser Artikel bezieht sich auf 1-Produkte.

Disclaimer / Rechtliche Hinweise

Der Inhalt dieser Seite ist eine Kombination aus menschlicher und computerbasierter Übersetzung des originalen, englischsprachigen Inhalts. Dieser Inhalt wird zum besseren Verständnis und nur zur allgemeinen Information bereitgestellt und sollte nicht als vollständig oder fehlerfrei betrachtet werden. Sollte eine Diskrepanz zwischen der englischsprachigen Version dieser Seite und der Übersetzung auftreten, gilt die englische Version. Englische Version dieser Seite anzeigen.