Artikel-ID: 000092935 Inhaltstyp: Produktinformationen und Dokumente Letzte Überprüfung: 28.02.2023

Ist es möglich, OpenVINO™ Runtime-Inferenz-Pipeline mit Intermediate Representation (IR) zu implementieren?

BUILT IN - ARTICLE INTRO SECOND COMPONENT
Zusammenfassung

Schritte zur Implementierung OpenVINO™ Runtime-Inferenz-Pipeline mit IR.

Beschreibung
  1. TensorFlow*-Modell in IR konvertiert.
  2. Schritte zur Implementierung OpenVINO™ Runtime-Inferenz-Pipeline mit IR konnten nicht bestimmt werden.
Lösung
  1. Create* OpenVINO™ Runtime Core
    import openvino.runtime as ov
    core = ov.Core()

     
  2. Modell kompilieren
    compiled_model = core.compile_model("model.xml", "AUTO")
     
  3. Erstellen einer Inferen-Anfrage
    infer_request = compiled_model.create_infer_request()
     
  4. Festgelegt Eingänge
    # Create tensor from external memory
    input_tensor = ov.Tensor(array=memory, shared_memory=True)
    # Set input tensor for model with one input
    infer_request.set_input_tensor(input_tensor)

     
  5. Starten Ableitung
    infer_request.start_async()
    infer_request.wait()

     
  6. Inferenzergebnisse verarbeiten
    # Get output tensor for model with one output
    output = infer_request.get_output_tensor()
    output_buffer = output.data
    # output_buffer[] - accessing output tensor data

Zugehörige Produkte

Dieser Artikel bezieht sich auf 1 Produkte

Der Inhalt dieser Seite ist eine Kombination aus menschlicher und computerbasierter Übersetzung des originalen, englischsprachigen Inhalts. Dieser Inhalt wird zum besseren Verständnis und nur zur allgemeinen Information bereitgestellt und sollte nicht als vollständig oder fehlerfrei betrachtet werden. Sollte eine Diskrepanz zwischen der englischsprachigen Version dieser Seite und der Übersetzung auftreten, gilt die englische Version. Englische Version dieser Seite anzeigen.