Einleitung
Dieses Paket enthält die Intel® Distribution der OpenVINO™ Toolkit-Softwareversion 2026.1 für Linux*, Windows* und macOS*.
Verfügbare Downloads
- Microsoft Windows*
- Größe: 187.8 MB
- SHA256: D5C23B1EB54374E020B66446F39CC4009B168C196E3F4BAD8061F47EB1418FA4
- Microsoft Windows*
- Größe: 736.1 MB
- SHA256: F12CAB6A76B633F7EFFF089E5E192229E020DCA157E31EBC4DAE378B939F5ACF
- macOS*
- Größe: 40.1 MB
- SHA256: F7BB6777383BAD03B7437FE1E256BA469960DD6A595934D7FB2D9681A21E65F1
- Ubuntu Family*
- Größe: 35.5 MB
- SHA256: EC7D0147FFAFD5F196E805376469DBE9DE1CBC4CC8EFBD2A033F8C240EDE060B
- Ubuntu 22.04 LTS*, Ubuntu Family*
- Größe: 93.5 MB
- SHA256: 3B4D92FEC96860DFEA844CD7C23E190D76C243E75815491D53405B4CED892103
- Ubuntu 24.04 LTS*, Linux*-
- Größe: 95.6 MB
- SHA256: 0F54D388CDCFC691162BC4FFA28792FC953B6C3F5A1B89CAC03D40C6284379D5
- Linux*-, Debian Linux*
- Größe: 32.7 MB
- SHA256: 8646F9F20DF5410F905227D582877D4C19962A753C9A2E0AEA79BA4D29BC6A43
- CentOS Linux Produktreihe*, Linux*-
- Größe: 70.9 MB
- SHA256: 39DEBD57818BB9F64589CB17642227A862766A76BA10C9A622663815FB350F51
- Linux*-, Red Hat Linux Produktreihe*
- Größe: 73.3 MB
- SHA256: A63EAFC7A78D9DFB0C1AD597BAA4B0E5C6C87357DCBBA213C7AE8AD882A07B8B
- Android*
- Größe: 71 MB
- SHA256: E0A303E60720E71E1FE0A64DAD7067ECD3960A57EB825DC630A7C5E49216A93E
Detaillierte Beschreibung
Was gibt es Neues?
- Mehr Gen KI-Abdeckung und Framework-Integrationen zur Minimierung von Codeänderungen
- Neue Modelle, die auf CPUs und GPUs unterstützt werden: Qwen3 VL
- Neue Modelle, die auf CPUs unterstützt werden: GPT-OSS 120B
- Vorschau: Vorstellung des OpenVINO Backends für llama.cpp, das eine optimierte Inferenz auf Intel CPUs, GPUs und NPUs ermöglicht. Validiert auf GGUF-Modellen wie Llama-3.2-1B-Instruct-GGUF, Phi-3-mini-4k-instruct-gguf, Qwen2.5-1.5B-Instruct-GKUF und Mistral-7B-Instruct-v0.3.
- Neues Notebook: Einheitlicher VLM-Chatbot mit Videodatei-Support und interaktiver Modellumschaltung über Qwen3-VL, Qwen2.5-VL und LLaVa-NeXT-Video.
- Breitere LLM-Modellunterstützung und mehr Modellkomprimierungstechniken
- OpenVINO™ GenAI fügt TaylorSeer Lite Caching für die Bild- und Videoerzeugung hinzu und beschleunigt so die Diffusionstransformator-Inferenz über Flux-, SD3- und LTX-Video-Pipelines, abgestimmt auf Hugging Face Diffuser.
- LTX-Video Generation auf GPU erreicht eine End-to-End-Beschleunigung durch die Fusion von RMSNorm und RoPE Operatoren, wodurch die Videoerzeugungsleistung deutlich verbessert wird.
- OpenVINO™ GenAI fügt dynamische LoRA-Unterstützung für Qwen3-VL- und VL-Modelle mit LLM hinzu, sodass Entwickler die Adapter zur Laufzeit austauschen können, um mehrere Modellvarianten in der Produktion effizient zu bedienen, ohne das Basismodell neu laden zu müssen.
- Vorschau: Die Release-weights-API für ov::Model ermöglicht die Speicherrückgewinnung während der Modellkompilierung auf NPUs und liefert so einen drastisch niedrigeren Spitzenspeicherverbrauch für Edge- und Client-Bereitstellungen. Benutzer müssen diese Eigenschaft in ov::Model festlegen, und sie wird während der Kompilierung angewendet.
- Mehr Portabilität und Leistung, um KI am Netzwerkrand, in der Cloud oder lokal auszuführen
- Einführung der Unterstützung für Prozessoren der Intel® Core™-Serie 3 (früherer Codename Wildcat Lake) und Intel® Arc™ Pro B70-Grafik mit 32 GB Speicher für Single-GPU-Inferenz auf 20-30B-Parameter-LLMs
- Die Prompt Lookup-Decodierung wurde auf Vision-Language-Pipelines ausgeweitet und bietet eine deutlich schnellere Token-Generierung für multimodale Workloads auf Intel CPUs und GPUs.
- OpenVINO™ GenAI hat jetzt einen kleineren Laufzeitplatz, nachdem die ICU-DLL-Abhängigkeiten von der Tokenisierung eliminiert wurden, was zu einer reduzierten Speichernutzung, einem schnelleren Start und einer einfacheren Bereitstellung führt.
- OpenVINO GenAI stellt über sein NPM-Paket WhisperPipeline for Node.js vor und liefert produktionsfähige Spracherkennung mit Audio-zu-Text-Transkription auf Wortebene.
- OpenVINO™ Model Server erweitert die Unterstützung für Qwen3-MOE- und GPT-OSS-20b-Modelle und bietet verbesserte Leistung, Genauigkeit und robuste gleichzeitige Anforderungsbehandlung mit kontinuierlichem Batching. Diese voroptimierten Modelle sind auf Hugging Face für eine einfache Bereitstellung verfügbar. Darüber hinaus führt der Modellserver Funktionen zum In- und Outpainting von Bildern über den Endpunkt /image für die KI-Bildbearbeitung ein.
Holen Sie sich alle Details. Siehe Versionshinweise zu 2026.1.
Installationsanleitungen
Sie können je nach Betriebssystem wählen, wie Sie OpenVINO™ Runtime aus Archive* installieren möchten:
- Installation OpenVINO Runtime unter Linux*
- Installation OpenVINO Runtime unter Windows*
- Installation von OpenVINO Runtime unter macOS*
Inhalt des Download-Pakets (Archivdatei)
- Bietet sowohl C/C++- als auch Python-APIs
- Enthält zusätzlich Codebeispiele
Hilfreiche Links
HINWEIS: Links werden in einem neuen Fenster geöffnet.
Haftungsausschluss1
Produkt- und Leistungsangaben
Intel ist gegenwärtig dabei, nicht-integrative Sprache aus unserer aktuellen Dokumentation, den Benutzeroberflächen und dem Code zu entfernen. Bitte beachten Sie, dass rückwirkende Änderungen nicht immer möglich sind und dass einige nicht-integrative Formulierungen in älteren Dokumentationen, Benutzeroberflächen und Codes verbleiben können.
Der Inhalt dieser Seite ist eine Kombination aus menschlicher und computerbasierter Übersetzung des originalen, englischsprachigen Inhalts. Dieser Inhalt wird zum besseren Verständnis und nur zur allgemeinen Information bereitgestellt und sollte nicht als vollständig oder fehlerfrei betrachtet werden. Sollte eine Diskrepanz zwischen der englischsprachigen Version dieser Seite und der Übersetzung auftreten, gilt die englische Version. Englische Version dieser Seite anzeigen.