Artikel-ID: 000058759 Inhaltstyp: Fehlerbehebung Letzte Überprüfung: 06.09.2022

Konvertierung von INT8-Modellen in Zwischenrepräsentierung (IR)

BUILT IN - ARTICLE INTRO SECOND COMPONENT
Zusammenfassung

Modelloptimierungsablauf mit OpenVINO

Beschreibung

Im letzten Absatz des Leitfadens für niedrige Präzisionsoptimierung wird quantisierungsfähiges Training erwähnt. Es heißt, dass dies einem Benutzer die Möglichkeit bietet, ein genaues optimiertes Modell zu erhalten, das in IR konvertiert werden kann. Weitere Einzelheiten werden jedoch nicht angegeben.

Lösung

Das Quantisierungs-bewusste Training mit OpenVINO™ kompatiblen Schulungs-Frameworks unterstützt Modelle, die auf TensorFlow QAT oder PyTorch NNCF geschrieben wurden, mit Optimierungserweiterungen.

Der NNCF ist ein PyTorch-basiertes Framework, das eine Vielzahl von Deep-Learning-Modellen für verschiedene Anwendungsfälle unterstützt. Es implementiert auch quantisierungsfähiges Training, das verschiedene Quantisierungsmodi und Einstellungen unterstützt, und unterstützt verschiedene Komprimierungsalgorithmen, einschließlich Quantisierung, Binarisierung, Dichte und Filter-Zurückschneiden.

Nach Abschluss der Feinabstimmung kann das genaue optimierte Modell in das ONNX-Format exportiert werden, das dann vom Model Optimizer verwendet werden kann, um IR-Dateien (Intermediate Representation) zu generieren und anschließend mit OpenVINO™ Inferenz-Engine abgeleitet zu werden.

Zugehörige Produkte

Dieser Artikel bezieht sich auf 2 Produkte

Der Inhalt dieser Seite ist eine Kombination aus menschlicher und computerbasierter Übersetzung des originalen, englischsprachigen Inhalts. Dieser Inhalt wird zum besseren Verständnis und nur zur allgemeinen Information bereitgestellt und sollte nicht als vollständig oder fehlerfrei betrachtet werden. Sollte eine Diskrepanz zwischen der englischsprachigen Version dieser Seite und der Übersetzung auftreten, gilt die englische Version. Englische Version dieser Seite anzeigen.