Einleitung
Dieses Paket enthält die Intel® Distribution OpenVINO™ Toolkit-Software Version 2025.0 für Linux*, Windows* und macOS*.
Verfügbare Downloads
- Debian Linux*
- Größe: 31.8 MB
- SHA256: 7C821B3DF2EA1A5962D4BE07867DFED226B702AC7F2CFED74D544D9B35DCE818
- CentOS 7 (1908)*
- Größe: 56.4 MB
- SHA256: C34B7EB9094D618F58B0628B5EC9CA6F1FF49674F4D95FD3772C389B8C037A57
- Red Hat Enterprise Linux 8*
- Größe: 61.3 MB
- SHA256: CEB682A4DF4B8A86157686902EBC31FC4927849A708B0B8BB111D475C2A9ECCB
- Ubuntu 20.04 LTS*
- Größe: 64.5 MB
- SHA256: 622D5D1B710862659BA530ECC7AA2B9C6F1D84C12819D208F68178474791A2ED
- Ubuntu 20.04 LTS*
- Größe: 35.6 MB
- SHA256: D4282BC95F615EFB21646031ACCDEEBC6B4544452996C15DB3A6483FC46AE396
- Ubuntu 22.04 LTS*
- Größe: 55.4 MB
- SHA256: 09E8127DAF7EF42851F0C724CE93181B9256568BB6FC8E79CC8F33F4AB6D6F3E
- Ubuntu 24.04 LTS*
- Größe: 56.5 MB
- SHA256: E1681AA6CA02765A5F422EBFF6FD86EBD2C6C0EBD4EFB4E04DDA0EDB79EA30BB
- macOS*
- Größe: 46.2 MB
- SHA256: 59BA68B752BE3C298DF45AFD55428A872B39C35813A3C53697CF49591A843D2C
- macOS*
- Größe: 36.4 MB
- SHA256: 1628F809540D9A2AB22DFB48B2EA815C75E49EF9AE436AB29412F868886F05F5
- Windows 11*, Windows 10*
- Größe: 117.6 MB
- SHA256: B6D96E6ED184A499C054C07BE8619946B4F851F60BF725077E9683FE14719E2B
Detaillierte Beschreibung
Was gibt es Neues?
- Mehr GenAI-Abdeckung und Framework-Integrationen zur Minimierung von Codeänderungen.
- Neue unterstützte Modelle: Qwen 2.5, Deepseek-R1-Distill-Llama-8B, DeepSeek-R1-Distill-Qwen-7B und DeepSeek-R1-Distill-Qwen-1.5B, FLUX.1 Schnell und FLUX.1 Dev.
- Flüstermodell: Verbesserte Leistung bei CPUs, integrierten GPUs und diskreten GPUs mit GenAI API.
- Vorschau: Einführung der NPU-Unterstützung für torch.compile, die Entwicklern die Möglichkeit gibt, das OpenVINO-Backend zu verwenden, um die PyTorch-API auf NPUs auszuführen. 300+ Deep-Learning-Modelle aus den Repositories TorchVision, Timm und TorchBench.
- Breitere Unterstützung für Large Language Model (LLM) und mehr Modellkomprimierungstechniken.
- Vorschau: Die Hinzufügung von Prompt Lookup zur GenAI-API verbessert die Latenz für zweite Token für LLMs durch die effektive Verwendung vordefinierter Eingabeaufforderungen, die dem beabsichtigten Anwendungsfall entsprechen.
- Vorschau: Die GenAI-API bietet jetzt Bild-zu-Bild-Inpainting-Funktionen. Diese Funktion ermöglicht es Modellen, realistische Inhalte zu generieren, indem sie bestimmte Modifikationen einzeichnen und nahtlos in das Originalbild integrieren.
- Die asymmetrische KV-Cache-Komprimierung ist jetzt für INT8 auf CPUs aktiviert, was zu einem geringeren Speicherverbrauch und einer verbesserten Latenz des zweiten Tokens führt, insbesondere bei langen Eingabeaufforderungen, die viel Speicher erfordern. Die Option sollte vom Benutzer explizit angegeben werden.
- Mehr Portabilität und Leistung, um KI am Netzwerkrand, in der Cloud oder lokal auszuführen.
- Unterstützung für die neuesten Prozessoren der Intel® Core™ Ultra 200H-Serie (früherer Codename Arrow Lake-H)
- Die Integration des OpenVINO™-Backends mit dem Triton Inferenz-Server ermöglicht es Entwicklern, den Triton-Server für eine verbesserte Modellbereitstellungsleistung bei der Bereitstellung auf Intel CPUs zu nutzen.
- Vorschau: Eine neue OpenVINO™-Backend-Integration ermöglicht es Entwicklern, OpenVINO-Leistungsoptimierungen direkt in Keras 3-Workflows für eine schnellere KI-Inferenz auf CPUs, integrierten GPUs, diskreten GPUs und NPUs zu nutzen. Diese Funktion ist mit der neuesten Version von Keras 3.8 verfügbar.
- Der OpenVINO Model Server unterstützt jetzt native Windows Server-Bereitstellungen, sodass Entwickler eine bessere Leistung erzielen können, indem Container-Overhead eliminiert und die GPU-Bereitstellung vereinfacht wird.
Jetzt veraltet
- Legacy-Präfixe l_, w_ und m_ wurden aus OpenVINO Archivnamen entfernt.
- Der Laufzeit-Namespace für die Python-API wurde als veraltet markiert und soll für 2026.0 entfernt werden. Die neue Namespace-Struktur wurde ausgeliefert und eine Migration ist sofort möglich. Details werden durch Warnungen und durch Dokumentation mitgeteilt.
- Die NNCF create_compressed_model()-Methode ist veraltet. Die Methode nncf.quantize() wird jetzt für das quantisierungsfähige Training von PyTorch- und TensorFlow-Modellen empfohlen.
Einbauanleitung
Sie können wählen, wie OpenVINO™ Runtime je nach Betriebssystem installiert werden soll:
- Installation OpenVINO Runtime unter Linux*
- Installation OpenVINO Runtime unter Windows*
- Installation von OpenVINO Runtime unter macOS*
Inhalt des Download-Pakets
- OpenVINO™ Runtime/Inference Engine für C/C++ und Python APIs
Hilfreiche Links
HINWEIS: Links werden in einem neuen Fenster geöffnet.
Dieser Download gilt für die unten aufgeführten Produkte.
Haftungsausschluss1
Produkt- und Leistungsangaben
Intel ist gegenwärtig dabei, nicht-integrative Sprache aus unserer aktuellen Dokumentation, den Benutzeroberflächen und dem Code zu entfernen. Bitte beachten Sie, dass rückwirkende Änderungen nicht immer möglich sind und dass einige nicht-integrative Formulierungen in älteren Dokumentationen, Benutzeroberflächen und Codes verbleiben können.
Der Inhalt dieser Seite ist eine Kombination aus menschlicher und computerbasierter Übersetzung des originalen, englischsprachigen Inhalts. Dieser Inhalt wird zum besseren Verständnis und nur zur allgemeinen Information bereitgestellt und sollte nicht als vollständig oder fehlerfrei betrachtet werden. Sollte eine Diskrepanz zwischen der englischsprachigen Version dieser Seite und der Übersetzung auftreten, gilt die englische Version. Englische Version dieser Seite anzeigen.