Einleitung
Dieses Paket enthält die Intel® Distribution der OpenVINO™ Toolkit Software Version 2023.0 für Linux*, Windows* und macOS*.
Verfügbare Downloads
- CentOS 7 (1908)*
- Größe: 47.1 MB
- SHA1: D4C04DFD0D46FDA5C4D9DA3D951F5CCDF2320BFC
- Debian Linux*
- Größe: 31.7 MB
- SHA1: 4E79B64076D15AA15C18EF75FED48FF922110F71
- Debian Linux*
- Größe: 25.7 MB
- SHA1: 08FE6ECB243BC65192AE4A9668F1A428AF76A6BD
- Red Hat Enterprise Linux 8*
- Größe: 43.3 MB
- SHA1: 52B4B6D77C5EA65A202C36F42D0E3C7076B90D0E
- Ubuntu 18.04 LTS*
- Größe: 43 MB
- SHA1: 4C40C984F5922340A895355166170AEA76F7985B
- Ubuntu 20.04 LTS*
- Größe: 46.4 MB
- SHA1: C111DFCB154B803DDD8437D1C305964966F2CF3B
- Ubuntu 22.04 LTS*
- Größe: 46.9 MB
- SHA1: 3721E0EA48A80F82D8869BE46982B3363B47DFB4
- macOS*
- Größe: 118 MB
- SHA1: A2141DFBE19622C7D69EC327A9F5B11F054E622A
- macOS*
- Größe: 32.6 MB
- SHA1: 2DB578AEC9F20DB6A78E3DB7F92900BB98EDEC54
- Windows 11*, Windows® 10
- Größe: 96 MB
- SHA1: 1DED831121475705A8C4DF9C92C434AABB4FD808
Detaillierte Beschreibung
Einleitung
Das Intel® Distribution of OpenVINO™ Toolkit ist eine Open-Source-Lösung zur Optimierung und Bereitstellung von KI-Inferenz in Bereichen wie Computer Vision, automatische Spracherkennung, Verarbeitung natürlicher Sprache, Empfehlungssysteme und mehr. Mit seiner Plug-in-Architektur ermöglicht OpenVINO Entwicklern, einmal zu schreiben und überall einzusetzen. Wir sind stolz darauf, die Veröffentlichung von OpenVINO 2023.0 bekannt zu geben, das eine Reihe neuer Funktionen, Verbesserungen und veralteter Funktionen einführt, die darauf abzielen, die Entwicklererfahrung zu verbessern.
Das OpenVINO™ Toolkit:
- Ermöglicht die Verwendung von Modellen, die mit gängigen Frameworks wie TensorFlow* und PyTorch* trainiert wurden.
- Optimiert die Inferenz von Deep-Learning-Modellen durch Anwenden von Modell-Retraining oder Feinabstimmung, wie z. B. Quantisierung nach dem Training.
- Unterstützt die heterogene Ausführung auf Intel-Hardware unter Verwendung einer gemeinsamen API für die Intel-CPU, Intel Integrated Graphics, Intel Discrete Graphics und andere häufig verwendete Beschleuniger.
Neu und geändert in 2023.0
Zusammenfassung der wichtigsten Funktionen und Verbesserungen
- Mehr Integrationen, Minimierung von Codeänderungen
- Jetzt können Sie TensorFlow- und TensorFlow Lite-Modelle direkt in die OpenVINO Runtime und den OpenVINO Model Server laden. Modelle werden automatisch konvertiert. Um eine maximale Leistung zu erzielen, wird weiterhin empfohlen, vor dem Laden des Modells in das OpenVINO Intermediate Representation oder IR-Format zu konvertieren. Darüber hinaus haben wir eine ähnliche Funktionalität mit PyTorch-Modellen als Vorschaufunktion eingeführt, mit der Sie PyTorch-Modelle direkt konvertieren können, ohne in ONNX konvertieren zu müssen.
- Unterstützung für Python* 3.11
- NEU: C++-Entwickler können jetzt die OpenVINO-Laufzeitumgebung aus Conda-Forge installieren*
- NEU: Arm*-Prozessoren werden jetzt im CPU-Plug-in unterstützt, einschließlich dynamischer Ausprägungen, voller Prozessorleistung und breiter Beispielcode-/Notebook-Abdeckung. Offiziell validiert für Raspberry Pi* 4 und Apple Mac* M1/M2
- Vorschau: Eine neue Python-API wurde eingeführt, die es Entwicklern ermöglicht, Modelle direkt aus Python-Skripten zu konvertieren und zu optimieren
- Umfassendere Modellunterstützung und Optimierungen
- Erweiterte Modellunterstützung für generative KI: CLIP, BLIP, Stable Diffusion 2.0, Textverarbeitungsmodelle, Transformatormodelle (z. B. S-BERT, GPT-J usw.) und andere bemerkenswerte: Detectron2, Paddle Slim, RNN-T, Segment Anything Model (SAM), Whisper und YOLOv8, um nur einige zu nennen.
- Anfängliche Unterstützung für dynamische Formen auf der GPU - Sie müssen nicht mehr zu statischen Formen wechseln, wenn Sie die GPU nutzen, was besonders für NLP-Modelle wichtig ist.
- Das Neural Network Compression Framework (NNCF) ist jetzt die Hauptlösung für die Quantisierung. Sie können es sowohl für die Optimierung nach dem Training als auch für quantisierungsbewusstes Training verwenden. Probieren Sie es aus: pip install nncf
- Portabilität und Leistung
- Das CPU-Plugin bietet jetzt Thread-Planung auf Intel® Core der 12. Generation und höher. Sie können die Inferenz auf E-Cores, P-Cores oder beidem ausführen, abhängig von den Konfigurationen Ihrer Anwendung. Es ist jetzt möglich, je nach Bedarf die Leistung oder die Energieeinsparung zu optimieren.
- NEU: Standard-Inferenzgenauigkeit - unabhängig davon, welches Gerät Sie verwenden, wird OpenVINO standardmäßig das Format verwenden, das eine optimale Leistung ermöglicht. Zum Beispiel FP16 für GPU oder BF16 für Intel® Xeon® der 4. Generation. Sie müssen das Modell nicht mehr vorher in eine bestimmte IR-Genauigkeit konvertieren, und Sie haben weiterhin die Möglichkeit, bei Bedarf im Genauigkeitsmodus zu arbeiten.
- Das Modell-Caching auf der GPU wurde jetzt durch effizienteres Laden/Kompilieren von Modellen verbessert.
Systemvoraussetzungen
Haftungsausschluss. Bestimmte Hardware (einschließlich, aber nicht beschränkt auf GPU und GNA) erfordert die manuelle Installation bestimmter Treiber, um ordnungsgemäß zu funktionieren. Treiber erfordern möglicherweise Updates für Ihr Betriebssystem, einschließlich des Linux-Kernels, siehe deren Dokumentation. Betriebssystemaktualisierungen sollten vom Benutzer durchgeführt werden und sind nicht Teil der OpenVINO-Installation. Informationen zu den Systemanforderungen finden Sie im Abschnitt Systemanforderungen in den Versionshinweisen.
Sie können wählen, wie Sie OpenVINO™ Runtime je nach Betriebssystem installieren möchten:
- OpenVINO Runtime unter Linux installieren
- OpenVINO Runtime unter Windows installieren
- OpenVINO Runtime unter macOS installieren
Was ist im Download-Paket enthalten?
- Laufzeit-/Inferenz-Engine
Hilfreiche Links
HINWEIS: Links werden in einem neuen Fenster geöffnet.
Dieser Download gilt für die unten aufgeführten Produkte.
Disclaimer / Rechtliche Hinweise1
Produkt- und Leistungsinformationen
Intel ist gegenwärtig dabei, nicht-integrative Sprache aus unserer aktuellen Dokumentation, den Benutzeroberflächen und dem Code zu entfernen. Bitte beachten Sie, dass rückwirkende Änderungen nicht immer möglich sind und dass einige nicht-integrative Formulierungen in älteren Dokumentationen, Benutzeroberflächen und Codes verbleiben können.
Der Inhalt dieser Seite ist eine Kombination aus menschlicher und computerbasierter Übersetzung des originalen, englischsprachigen Inhalts. Dieser Inhalt wird zum besseren Verständnis und nur zur allgemeinen Information bereitgestellt und sollte nicht als vollständig oder fehlerfrei betrachtet werden. Sollte eine Diskrepanz zwischen der englischsprachigen Version dieser Seite und der Übersetzung auftreten, gilt die englische Version. Englische Version dieser Seite anzeigen.