Zum Hauptinhalt wechseln
Support-Wissensdatenbank

Warum blieb das quantisierte Modellformat FP32 anstelle von INT8?

Inhaltstyp: Produktinformationen und Dokumente   |   Artikel-ID: 000095064   |   Letzte Überprüfung: 13.06.2023

Beschreibung

  • Quantisiertes ONNX-Modell mit FP32-Präzisionsformat.
  • Führte die compress_model_weights -Funktion aus, um die Größe der Bin-Datei nach Durchführung der Quantisierung nach dem Training zu reduzieren.
  • Hat das Modell kompiliert und festgestellt, dass die Ausgabe des Modells in FP32 anstelle von INT8 ist.

Lösung

Während der Quantisierung wurden nur erforderliche Operationen aus Leistungsperspektive quantisiert. Die restlichen Operationen bleiben als FP32 in der Ausgabe.

Weitere Informationen

Weitere Informationen finden Sie unter OpenVINO™ Low Precision Transformation.

Zugehörige Produkte

Dieser Artikel bezieht sich auf 1-Produkte.

Disclaimer / Rechtliche Hinweise

Der Inhalt dieser Seite ist eine Kombination aus menschlicher und computerbasierter Übersetzung des originalen, englischsprachigen Inhalts. Dieser Inhalt wird zum besseren Verständnis und nur zur allgemeinen Information bereitgestellt und sollte nicht als vollständig oder fehlerfrei betrachtet werden. Sollte eine Diskrepanz zwischen der englischsprachigen Version dieser Seite und der Übersetzung auftreten, gilt die englische Version. Englische Version dieser Seite anzeigen.