Zum Hauptinhalt wechseln
Support-Wissensdatenbank

Verarbeitung mehrerer Frames in der Multi Camera Multi Target Python* Demo

Inhaltstyp: Installation und Setup   |   Artikel-ID: 000057233   |   Letzte Überprüfung: 06.06.2023

Das Intel® OpenVINO™ Toolkit umfasst die Multi Camera Multi Target Python* Demo. In dieser Demo werden ein Personenerkennungsmodell und ein Personenidentifizierungsmodell verwendet. Vortrainierte Modelle sind im Open Model Zoo enthalten oder Sie können Ihre eigenen trainierten Modelle verwenden.

Die Multi Camera Multi Target Python* Demo erfordert die Pfade zu mehreren Videostreams oder Dateien, die mit dem Befehlszeilenargument --cam_ids für die Indizes der einzelnen Webkameras oder -videos für die Pfade zu den Videodateien angegeben sind.
Die Demo liest einen Batch von Frames aus der Webkamera oder Videos nacheinander und führt sie für jedes erkannte Objekt durch das Person-Erkennungsmodell. Jedem identifizierten Objekt wurde eine ID zugewiesen, und das Objekt wird mit einem Begrenzungskarton angezeigt.

Sie können die Batchgröße als Befehlszeilenargument angeben, das alle Frames übernimmt und gleichzeitig Inferenz auf jedem Frame durchführt.

Beispiel: Mit dem Argument -bs x (wobei x die Anzahl der Videostreams ist), holt sich die Demo einen Frame aus jedem Videostream und führt Inferenz auf jedem Frame gleichzeitig durch.

Weitere Informationen zu dieser Demo finden Sie auf der Multi Camera Multi Target Python* Demo-Seite

Zugehörige Produkte

Dieser Artikel bezieht sich auf 1-Produkte.

Disclaimer / Rechtliche Hinweise

Der Inhalt dieser Seite ist eine Kombination aus menschlicher und computerbasierter Übersetzung des originalen, englischsprachigen Inhalts. Dieser Inhalt wird zum besseren Verständnis und nur zur allgemeinen Information bereitgestellt und sollte nicht als vollständig oder fehlerfrei betrachtet werden. Sollte eine Diskrepanz zwischen der englischsprachigen Version dieser Seite und der Übersetzung auftreten, gilt die englische Version. Englische Version dieser Seite anzeigen.