Intel® Distribution des OpenVINO™-Toolkits

753640
6/18/2025

Einleitung

Dieses Paket enthält die Intel® Distribution der OpenVINO™ Toolkit-Softwareversion 2025.2 für Linux*, Windows* und macOS*.

Verfügbare Downloads

  • Debian Linux*
  • Größe: 33.2 MB
  • SHA256: BADD0D8E5DF356838257EEC43249880FF0D1E95419FF7F3D99B12FDAB87301D9
  • CentOS 7 (2003)*
  • Größe: 57.7 MB
  • SHA256: 63E27F2EF30A075E2E2173A355FC596E7364509596447AD1CAE2A2E3C84AA1DE
  • Red Hat Enterprise Linux 8*
  • Größe: 62.2 MB
  • SHA256: 241199A6C56AE2AC62680729FA51C9B20AB0773BB1ACB0B45DC1020C02BD324E
  • Ubuntu 20.04 LTS*
  • Größe: 65.5 MB
  • SHA256: 26D44F1A0659EF1859CF116D0EB7C5E989DB2FA60E75679CCCE0BD7FAF2028A6
  • Ubuntu 20.04 LTS*
  • Größe: 37 MB
  • SHA256: 07234718CAC23E376C6C17BD64526349D290EFD1A9590B4E591B153AA1A0C3E3
  • Ubuntu 22.04 LTS*
  • Größe: 56.8 MB
  • SHA256: A184FDD02A8EDBCC6DEBA14E74D2A4612252BCF6640A7D056F4784B901C68482
  • Ubuntu 24.04 LTS*
  • Größe: 57.9 MB
  • SHA256: 8B5C2A90FEDD24BB7EFB8403348661AB602B4FC1C181BDA6F775826364368F07
  • Windows 11*, Windows 10*
  • Größe: 118.5 MB
  • SHA256: 2FF4C46E089D6F64C8D39EB175E9AF7C0FEA8052C06968B753A55AA9C83B8DE9
  • Windows 11*, Windows 10*
  • Größe: 646.9 MB
  • SHA256: 6C49F72C742C74C621F1E24E1455F0B34F4ECAFB2F09283EAB08921AD1BC6CA8
  • macOS*
  • Größe: 46.5 MB
  • SHA256: A9AF6A671F204E37E9E25ACFEDC924F52CE4DBECA14AB2A923E72A4AE8C6CD35
  • macOS*
  • Größe: 37.8 MB
  • SHA256: 12C711DA64FCC79BCC15E4F4C40E18A54978F968F85037E4755ED3C2EFAE2B1D

Detaillierte Beschreibung

Was gibt es Neues?

  • Mehr Gen KI-Abdeckung und Framework-Integrationen zur Minimierung von Codeänderungen.
    • Neue Modelle, die auf CPUs und GPUs unterstützt werden: Phi-4, Mistral-7B-Instruct-v0.3, SD-XL Inpainting 0.1, Stable Diffusion 3.5 Large Turbo, Phi-4-Reasoning, Qwen3 und Qwen2.5-VL-3B-Instruct. Mistral 7B Instruct v0.3 wird auch auf NPUs unterstützt.
    • Vorschau: OpenVINO™ GenAI führt eine Text-to-Speech-Pipeline für das SpeechT5 TTS-Modell ein, während das neue RAG-Backend Entwicklern eine vereinfachte API bietet, die eine reduzierte Speichernutzung und eine verbesserte Leistung bietet.
    • Vorschau: OpenVINO™ GenAI bietet einen GGUF Reader für die nahtlose Integration von llama.cpp-basierten LLMs mit Python- und C++-Pipelines, die GGUF-Modelle laden, OpenVINO Graphen erstellen und GPU-Inferenz on-the-fly ausführen. Validiert für gängige Modelle: DeepSeek-R1-Distill-Qwen (1.5B, 7B), Qwen2.5 Instruct (1.5B, 3B, 7B) & llama-3.2 Instruct (1B, 3B, 8B).
  • Breitere LLM-Modellunterstützung und mehr Modellkomprimierungstechniken.
    • Weitere Optimierung von LoRA-Adaptern in OpenVINO GenAI für verbesserte Leistung von LLM-, VLM- und Text-zu-Bild-Modellen auf integrierten GPUs. Entwickler können LoRA-Adapter verwenden, um Modelle für spezielle Aufgaben schnell anzupassen.
    • Die KV-Cache-Komprimierung für CPUs ist bei INT8 standardmäßig aktiviert, was im Vergleich zu FP16 den Speicherbedarf reduziert und gleichzeitig die Genauigkeit beibehält. Darüber hinaus bietet es erhebliche Speichereinsparungen für LLMs mit INT4-Unterstützung im Vergleich zu INT8.
    • Optimierungen für die integrierten GPUs der Intel® Core™ Ultra Prozessorreihe 2 und die Grafik der Intel® Arc™ B-Serie mit der systolischen® Intel XMX-Plattform zur Verbesserung der Leistung von VLM-Modellen und hybriden quantisierten Bilderzeugungsmodellen sowie zur Verbesserung der First-Token-Latenz für LLMs durch dynamische Quantisierung.
  • Mehr Portabilität und Leistung, um KI am Netzwerkrand, in der Cloud oder lokal auszuführen.
    • Verbesserte Linux* Unterstützung mit dem neuesten GPU-Treiber für integrierte GPUs auf Intel® Core™ Ultra Prozessorreihe 2 (früherer Codename Arrow Lake H).
    • OpenVINO™ Model Server bietet jetzt eine optimierte C++-Version für Windows und ermöglicht eine verbesserte Leistung für Modelle mit langem Kontext durch Präfix-Caching und ein kleineres Windows-Paket, das die Python-Abhängigkeit beseitigt. Unterstützung für Hugging Face-Modelle ist jetzt enthalten.
    • Unterstützung für die datenfreie INT4-Gewichtungskompression für ONNX-Modelle, die im Neural Network Compression Framework (NNCF) implementiert sind.
    • Die NPU-Unterstützung für FP16-NF4-Präzision bei Intel® Core™ Prozessoren der 200-V-Serie für Modelle mit bis zu 8 B-Parametern wird durch symmetrische und kanalweise Quantisierung ermöglicht, was die Genauigkeit verbessert und gleichzeitig die Leistungseffizienz beibehält.

Holen Sie sich alle Details. Siehe Versionshinweise 2025.2.

Einbauanleitung

Sie können je nach Betriebssystem wählen, wie Sie OpenVINO™ Runtime aus Archive* installieren möchten:

Inhalt des Download-Pakets (Archivdatei)

  • Bietet sowohl C/C++- als auch Python-APIs
  • Enthält zusätzlich Codebeispiele

Hilfreiche Links

ANMERKUNG: Links werden in einem neuen Fenster geöffnet.

Der Inhalt dieser Seite ist eine Kombination aus menschlicher und computerbasierter Übersetzung des originalen, englischsprachigen Inhalts. Dieser Inhalt wird zum besseren Verständnis und nur zur allgemeinen Information bereitgestellt und sollte nicht als vollständig oder fehlerfrei betrachtet werden. Sollte eine Diskrepanz zwischen der englischsprachigen Version dieser Seite und der Übersetzung auftreten, gilt die englische Version. Englische Version dieser Seite anzeigen.