Zum Hauptinhalt wechseln
Support-Wissensdatenbank

Ist es möglich, OpenVINO™ Runtime-Inferenz-Pipeline mit Intermediate Representation (IR) zu implementieren?

Inhaltstyp: Produktinformationen und Dokumente   |   Artikel-ID: 000092935   |   Letzte Überprüfung: 28.02.2023

Beschreibung

  1. TensorFlow*-Modell in IR konvertiert.
  2. Schritte zur Implementierung OpenVINO™ Runtime-Inferenz-Pipeline mit IR konnten nicht bestimmt werden.

Lösung

  1. Create* OpenVINO™ Runtime Core
    import openvino.runtime as ov
    core = ov.Core()

     
  2. Modell kompilieren
    compiled_model = core.compile_model("model.xml", "AUTO")
     
  3. Erstellen einer Inferen-Anfrage
    infer_request = compiled_model.create_infer_request()
     
  4. Festgelegt Eingänge
    # Create tensor from external memory
    input_tensor = ov.Tensor(array=memory, shared_memory=True)
    # Set input tensor for model with one input
    infer_request.set_input_tensor(input_tensor)

     
  5. Starten Ableitung
    infer_request.start_async()
    infer_request.wait()

     
  6. Inferenzergebnisse verarbeiten
    # Get output tensor for model with one output
    output = infer_request.get_output_tensor()
    output_buffer = output.data
    # output_buffer[] - accessing output tensor data

Zugehörige Produkte

Dieser Artikel bezieht sich auf 3-Produkte.
Software für Intel® Xeon Phi™ Prozessor OpenVINO™ toolkit Performance-Bibliotheken

Disclaimer / Rechtliche Hinweise

Der Inhalt dieser Seite ist eine Kombination aus menschlicher und computerbasierter Übersetzung des originalen, englischsprachigen Inhalts. Dieser Inhalt wird zum besseren Verständnis und nur zur allgemeinen Information bereitgestellt und sollte nicht als vollständig oder fehlerfrei betrachtet werden. Sollte eine Diskrepanz zwischen der englischsprachigen Version dieser Seite und der Übersetzung auftreten, gilt die englische Version. Englische Version dieser Seite anzeigen.