Schritte zur Implementierung OpenVINO™ Runtime-Inferenz-Pipeline mit IR.
- TensorFlow*-Modell in IR konvertiert.
- Schritte zur Implementierung OpenVINO™ Runtime-Inferenz-Pipeline mit IR konnten nicht bestimmt werden.
- Create* OpenVINO™ Runtime Core
import openvino.runtime as ov
core = ov.Core()
- Modell kompilieren
compiled_model = core.compile_model("model.xml", "AUTO")
- Erstellen einer Inferen-Anfrage
infer_request = compiled_model.create_infer_request()
- Festgelegt Eingänge
# Create tensor from external memory
input_tensor = ov.Tensor(array=memory, shared_memory=True)
# Set input tensor for model with one input
infer_request.set_input_tensor(input_tensor)
- Starten Ableitung
infer_request.start_async()
infer_request.wait()
- Inferenzergebnisse verarbeiten
# Get output tensor for model with one output
output = infer_request.get_output_tensor()
output_buffer = output.data
# output_buffer[] - accessing output tensor data