Artikel-ID: 000097983 Inhaltstyp: Fehlermeldungen Letzte Überprüfung: 04.10.2024

Llama_chat Python* Demo kann nicht von OpenVINO™ Model Server (OVMS) ausgeführt werden

BUILT IN - ARTICLE INTRO SECOND COMPONENT
Zusammenfassung

Alternative zur llama_chat Python* Demo von OVMS.

Beschreibung
Lösung

Veraltete llama_chat Python* Demo aus dem OVMS GitHub*-Repository.

Erstellen Sie die llm_text_generation Python* Demo , die die neue MediaPipe Python* Rechnerfunktion verwendet, die das Speichern des Lama-Modells erleichtert.

Zugehörige Produkte

Dieser Artikel bezieht sich auf 1 Produkte

Der Inhalt dieser Seite ist eine Kombination aus menschlicher und computerbasierter Übersetzung des originalen, englischsprachigen Inhalts. Dieser Inhalt wird zum besseren Verständnis und nur zur allgemeinen Information bereitgestellt und sollte nicht als vollständig oder fehlerfrei betrachtet werden. Sollte eine Diskrepanz zwischen der englischsprachigen Version dieser Seite und der Übersetzung auftreten, gilt die englische Version. Englische Version dieser Seite anzeigen.