Schritte zur Implementierung OpenVINO™ Runtime-Inferenz-Pipeline mit IR konnten nicht bestimmt werden.
Lösung
Create* OpenVINO™ Runtime Core import openvino.runtime as ov core = ov.Core()
Modell kompilieren compiled_model = core.compile_model("model.xml", "AUTO")
Erstellen einer Inferen-Anfrage infer_request = compiled_model.create_infer_request()
Festgelegt Eingänge # Create tensor from external memory input_tensor = ov.Tensor(array=memory, shared_memory=True) # Set input tensor for model with one input infer_request.set_input_tensor(input_tensor)
Starten Ableitung infer_request.start_async() infer_request.wait()
Inferenzergebnisse verarbeiten # Get output tensor for model with one output output = infer_request.get_output_tensor() output_buffer = output.data # output_buffer[] - accessing output tensor data
Zugehörige Produkte
Dieser Artikel bezieht sich auf 3-Produkte.
Software für Intel® Xeon Phi™ Prozessor
OpenVINO™ toolkit
Performance-Bibliotheken
Disclaimer / Rechtliche Hinweise
Der Inhalt dieser Seite ist eine Kombination aus menschlicher und computerbasierter Übersetzung des originalen, englischsprachigen Inhalts. Dieser Inhalt wird zum besseren Verständnis und nur zur allgemeinen Information bereitgestellt und sollte nicht als vollständig oder fehlerfrei betrachtet werden. Sollte eine Diskrepanz zwischen der englischsprachigen Version dieser Seite und der Übersetzung auftreten, gilt die englische Version. Englische Version dieser Seite anzeigen.