Einleitung
Dieses Paket enthält die Intel® Distribution der OpenVINO™ Toolkit-Software Version 2025.3 für Linux*, Windows* und macOS*.
Verfügbare Downloads
- Debian Linux*
- Größe: 35.1 MB
- SHA256: FB0F02F103A382E2638C57D8DB61BD62A52F2652E8A1B91D0919C23DF75F6AB9
- Ubuntu 22.04 LTS*
- Größe: 38.5 MB
- SHA256: 470F5C0FFBBF7C6983BD73C9CABF540FBC869043F5CC12F296E26011089464C0
- Ubuntu 22.04 LTS*
- Größe: 58.9 MB
- SHA256: D701A115D3DC18088FF75B5B8E67A51FBF780022A3D40EE8EE7F2ADFBD9915E6
- Ubuntu 24.04 LTS*
- Größe: 60 MB
- SHA256: DE0D5E16B161EFEA013A5C017E3B2BCE1191CA009A1947D392CCAB8ED9D0F6E4
- Red Hat Enterprise Linux 8*
- Größe: 66 MB
- SHA256: 3D12347F8C02BDD86F58D5A75D7D18B7CFC60D558C14A58B525F4657D5440F31
- CentOS 7 (2003)*
- Größe: 60 MB
- SHA256: 024348AE17CAE41E03F3DF495AEC78AC9C293781DB37338327AB9190ECAB795B
- macOS*
- Größe: 39.7 MB
- SHA256: AEFCF28DEEDE2F6FD470C6218D0C9CCD47268C428E7B22B758FC087ECB35C184
- macOS*
- Größe: 48.5 MB
- SHA256: 0CAA9758E09D7AE1F4783365DF91D4BB4DCF0DDFC9C3AD4E3AFFB8433172D41C
- Windows 11 Family*, Windows 10 Produktreihe*
- Größe: 122.1 MB
- SHA256: 05685C652E85F92AD17572EC2800EA6D0B96C9B7FF645299AD2BA09D1AFB17B4
- Windows 11 Family*, Windows 10 Produktreihe*
- Größe: 655.3 MB
- SHA256: C9252D1B056483275A5FDFCD663010A745C1A9DFAA5B1203C81F9E26B0956E22
Detaillierte Beschreibung
Was gibt es Neues?
- Mehr Gen KI-Abdeckung und Framework-Integrationen zur Minimierung von Codeänderungen
- Neue Modelle werden unterstützt: Phi-4-mini-reasoning, AFM-4.5B, Gemma-3-1B-it, Gemma-3-4B-it und Gemma-3-12B.
- NPU-Unterstützung hinzugefügt für: Qwen3-1.7B, Qwen3-4B und Qwen3-8B.
- Für NPU optimierte LLMs sind jetzt in der OpenVINO Hugging Face-Kollektion verfügbar.
- Vorschau: Intel® Core™ Ultra Prozessor- und Windows-basierte KI-PCs können jetzt den OpenVINO™ Execution Provider für Windows* ML für einen leistungsstarken, standardmäßigen Start unter Windows* nutzen.
- Breitere LLM-Modellunterstützung und mehr Optimierungstechniken für die Modellkomprimierung
- Das NPU-Plug-in bietet Unterstützung für längere Kontexte mit bis zu 8K Token, dynamische Eingabeaufforderungen und dynamische LoRA für eine verbesserte LLM-Leistung.
- Das NPU-Plug-in unterstützt jetzt dynamische Batchgrößen, indem es das Modell auf eine Batchgröße von 1 umformt und gleichzeitig mehrere Inferenzanforderungen verwaltet, wodurch die Leistung verbessert und die Speicherauslastung optimiert wird.
- Genauigkeitsverbesserungen für GenAI-Modelle sowohl bei integrierten als auch bei diskreten Grafiken wurden durch die Implementierung der Schlüssel-Cache-Komprimierungstechnik pro Kanal zusätzlich zur bestehenden KV-Cache-pro-Token-Komprimierungsmethode erreicht.
- OpenVINO™ GenAI führt TextRerankPipeline für eine verbesserte Retrieval-Relevanz und RAG-Pipeline-Genauigkeit sowie Structured Output für eine verbesserte Antwortzuverlässigkeit und Funktionsaufrufe ein, während gleichzeitig die Einhaltung vordefinierter Formate sichergestellt wird.
- Mehr Portabilität und Leistung, um KI am Netzwerkrand, in der Cloud oder lokal auszuführen
- Ankündigung der Unterstützung für Intel® Arc™ Pro B-Serie (B50 und B60).
- Vorschau: Hugging Face-Modelle, die für OpenVINO GenAI GGUF-fähig sind, werden jetzt vom OpenVINO™ Model Server für beliebte LLM-Modellarchitekturen wie DeepSeek Distill, Qwen2, Qwen2.5 und Llama 3 unterstützt. Diese Funktionalität reduziert den Speicherbedarf und vereinfacht die Integration für GenAI-Workloads.
- Mit verbesserter Zuverlässigkeit und Genauigkeit beim Tool-Aufruf verbessert der OpenVINO™ Model Server die Unterstützung für agentische KI-Anwendungsfälle auf KI-PCs und verbessert gleichzeitig die Leistung auf Intel CPUs, integrierten GPUs und NPUs.
- Die datengestützte INT4-Gewichtungskomprimierung, die jetzt im Neural Network Compression Framework (NNCF) für ONNX-Modelle unterstützt wird, reduziert den Speicherbedarf bei gleichzeitiger Wahrung der Genauigkeit und ermöglicht eine effiziente Bereitstellung in Umgebungen mit beschränkten Ressourcen.
Holen Sie sich alle Details. Siehe Versionshinweise 2025.3.
Einbauanleitung
Sie können je nach Betriebssystem wählen, wie Sie OpenVINO™ Runtime aus Archive* installieren möchten:
- Installation OpenVINO Runtime unter Linux*
- Installation OpenVINO Runtime unter Windows*
- Installation von OpenVINO Runtime unter macOS*
Inhalt des Download-Pakets (Archivdatei)
- Bietet sowohl C/C++- als auch Python-APIs
- Enthält zusätzlich Codebeispiele
Hilfreiche Links
HINWEIS: Links werden in einem neuen Fenster geöffnet.
Haftungsausschluss1
Produkt- und Leistungsangaben
Intel ist gegenwärtig dabei, nicht-integrative Sprache aus unserer aktuellen Dokumentation, den Benutzeroberflächen und dem Code zu entfernen. Bitte beachten Sie, dass rückwirkende Änderungen nicht immer möglich sind und dass einige nicht-integrative Formulierungen in älteren Dokumentationen, Benutzeroberflächen und Codes verbleiben können.
Der Inhalt dieser Seite ist eine Kombination aus menschlicher und computerbasierter Übersetzung des originalen, englischsprachigen Inhalts. Dieser Inhalt wird zum besseren Verständnis und nur zur allgemeinen Information bereitgestellt und sollte nicht als vollständig oder fehlerfrei betrachtet werden. Sollte eine Diskrepanz zwischen der englischsprachigen Version dieser Seite und der Übersetzung auftreten, gilt die englische Version. Englische Version dieser Seite anzeigen.