Ein abstraktes Bild einer Frau

Nutzen Sie die Vorteile generativer KI

Optimieren Sie mit dem speziell entwickelten Intel® AI-Hardware- und -Software-Portfolio Trainings und Bereitstellungen, um für Ihr Unternehmen wichtige Vorteile zu erzielen.

Auf einen Blick

  • Generative KI kann verschiedene Modalitäten miteinander kombinieren, um als Antwort auf eine Benutzerabfrage Bilder, Text, Video oder Audio zu erstellen.

  • Sprachliche KI erlaubt es Lösungen, menschliche Sprache zu verstehen und zu verarbeiten.

  • Intel® Hardware beschleunigt bei Anwendungsfällen wie der Gestaltung, Übersetzung und Zusammenfassung von Content die Leistung.

  • Außerdem bietet Intel eine Reihe von Software- und Entwicklungsressourcen, die Ihnen beim Trainieren und Bereitstellen generativer KI helfen.

author-image

Von

Was ist generative KI?

Generative KI hat in relativ kurzer Zeit erheblichen Einfluss auf unsere Welt gewonnen. Mit der Technologie können aus einfachen Benutzereingaben ansprechende und informative Texte generiert werden. Intelligente, responsive und menschenähnliche digitale Chatbots können Kunden unterstützen – ganz ohne Beteiligung von Mitarbeitern. Als Antwort auf jede vorstellbare Abfrage lassen sich fast unmittelbar ansprechende Bilder, Videos oder Audiodateien erstellen.

Generative KI wird durch massive Datensätze und aufwendig trainierte KI-Algorithmen möglich. Dabei müssen Datenwissenschaftler und Entwickler erhebliche Anstrengungen leisten, um die Ausgaben oder Erlebnisse zu gewährleisten, die ihr Unternehmen benötigt. Idealerweise werden die Algorithmen auf leistungsstarker, sorgfältig ausgewählter Hardware bereitgestellt, die im Budgetrahmen die für solche Workloads erforderlichen geringen Latenz- und schnellen Antwortzeiten bietet.

Generative KI bezieht sich im Allgemeinen auf KI-Lösungen, die als Antwort auf eine Benutzerabfrage Content generieren – unabhängig davon, ob es sich dabei um eine E-Mail zur Nachfragegenerierung, eine fantastische Landschaft oder eine dynamische Chatbot-Antwort handelt. Lösungen, die mit den Technologien entwickelt wurden (wie ChatGPT, Stable Diffusion und Dall-E), sorgen Tag für Tag für Schlagzeilen, und Unternehmen suchen überall nach Möglichkeiten, sie zu operationalisieren und ihre bahnbrechenden Vorteile zu nutzen.

Generative KI wird unter Einsatz von Transformationsmodellen an unstrukturierten Daten trainiert. Datenwissenschaftler und Entwickler müssen dabei die Ausgabe oder das Erlebnis auf den Bedarf ihres Unternehmens fein abstimmen.

Unternehmen, die generative KI für ihre geschäftlichen Herausforderungen verwenden möchten, können Modelle von Grund auf trainieren oder ein vortrainiertes Modell wählen, das sich an die Anforderungen des Unternehmens anpassen lässt.

Generative KI basiert auf und wird in Verbindung mit sprachlicher KI und natürlicher Sprachverarbeitung (NLP) bereitgestellt, was es KI ermöglicht, menschliche Sprache zu verarbeiten und zu verstehen. Gemeinsam können generative KI und NLP eine Benutzerabfrage verstehen und eine geeignete Antwort generieren – unabhängig davon, ob sie aus Text, Video, Bildern oder Audio bestehen soll.

Wie funktioniert generative KI?

Generative KI wird durch umfangreiche Datensätze ermöglicht, die KI-Modelle „lehren“, wie sie auf Aufforderungen von Benutzern reagieren sollen. Generative KI-Modelle finden Gemeinsamkeiten zwischen ähnlichen Arten von Daten und Informationen und gestalten auf dieser Basis neuen Content. In das Modell-Training fließt auch der Input von Datenwissenschaftlern und Fachleuten ein, die dabei helfen, das Lernen des Algorithmus zu steuern und ihm zu genaueren Ausgaben zu verhelfen.

Zur Unterstützung generativer KI-Lösungen können Open-Source-Modelle an individuelle Anforderungen von Unternehmen angepasst werden. Beispielsweise kann ein generalisierter KI-Chatbot-Algorithmus auf die spezifischen Attribute des Kundenstamms und Geschäftsmodells eines Unternehmens trainiert werden. Ein weiteres Beispiel: Ein Modell, das für die Generierung von Text im Content-Marketing verwendet werden soll, kann weiter spezialisiert oder feinjustiert werden, um sich auf eine bestimmte Branche und Zielgruppe zu fokussieren. Außerdem entstehen in rasanter Geschwindigkeit immer mehr domänenspezifische Modelle. Anders als größere Modelle werden sie mit kleineren, gezielteren Datensätzen trainiert. Es hat sich gezeigt, dass solche kleineren Modelle die Genauigkeit von größeren Modellen replizieren können, wenn sie mit sorgfältig gewonnenen Daten trainiert werden.

Generative KI-Lösungen nutzen einen Zweig von KI, der als große Sprachmodelle (Large Language Models, LLMs) bezeichnet wird. Das sind sprachliche KI-Modelle, die tiefe neuronale Netzwerke nutzen, um Text zu verarbeiten und zu generieren. Sie werden mit riesigen Mengen von Textdaten trainiert und sollen kohärente, sinnvolle Ausgaben liefern. LLMs beruhen auf Transformatorarchitekturen, um Eingangssequenzen parallel zu verarbeiten, was im Vergleich zu herkömmlichen neuronalen Netzwerken die Leistung und Geschwindigkeit erhöht.

Anwendungsfälle für generative KI und sprachliche KI

Gemeinsam können generative KI und sprachliche KI zur Entwicklung von neuen Tools, Diensten und Anwendungen verwendet werden, darunter für:

  • Content-Generierung: Erstellen Sie automatisch Artikel, Blog-Beiträge, Produktbeschreibungen oder andere schriftliche Materialien.
  • Chatbots: Nutzen Sie dynamische und intelligente dialogorientierte KI-Modelle, mit denen Ihre Kunden per Text oder Sprache interagieren können.
  • Bild-, Video- und Audiogenerierung: Erstellen Sie neue Bilder und Sounds, indem Sie bereits vorhandene Materialien überprüfen und mithilfe einer Benutzeraufforderung arbeiten.
  • Sprachübersetzung: Übersetzen Sie Text aus einer Sprache in eine andere.
  • Datenaugmentierung: Erstellen Sie synthetische Daten für andere ML-Modelle, um deren Genauigkeit und Leistung zu verbessern.
  • Textzusammenfassung: Fassen Sie große Textstücke in einem prägnanten Format zusammen, damit Leser die wichtigsten Punkte und Ideen schnell erfassen können.

Weitere KI-Anwendungsfälle – auch außerhalb sprachlicher KI und generativer KI – finden Sie im Überblick über Intel® AI-Anwendungsfälle.

Trainieren und Bereitstellen generativer KI mit Intel® Technologien

Wenn Sie die Leistung generativer KI für Ihr Unternehmen richtig nutzen möchten, müssen Sie Geschwindigkeit, Kosten und Skalierung richtig ausbalancieren. Damit Sie generative KI-Funktionen zuverlässig bereitstellen können, bietet Intel ein speziell entwickeltes Portfolio an Hardware- und Softwaretechnologien, die Ihre Initiative rationalisieren und den ROI beschleunigen. Unsere Mission ist es, KI-Innovatoren die Bereitstellung von KI überall dort zu ermöglichen, wo sie benötigt wird – vom Edge bis zur Cloud und zum Rechenzentrum. Dabei sorgen wir für optimale Leistung, Skalierbarkeit und Kosten.

Softwareressourcen für ein vereinfachtes Trainieren und Bereitstellen von generativer KI

Intel bietet Entwicklern und Datenwissenschaftlern eine Vielzahl von Softwaretools und Optimierungen, die dazu beitragen, die Leistung zu maximieren und die Produktivität sowohl beim Trainieren als auch beim Bereitstellen dramatisch zu erhöhen.

Für beliebte Data-Science-Frameworks wie PyTorch und TensorFlow bieten wir Optimierungen, die auf Intel® Architektur für signifikante Leistungssteigerungen sorgen. Im Rahmen unserer einheitlichen Programmiersprache oneAPI stellen wir die Intel® oneAPI Deep Neural Network Library mit hochoptimierten Implementierungen von Deep-Learning-Bausteinen zur Verfügung. Das vereinheitlichte Programmiermodell von oneAPI® kann auch zur Unterstützung heterogener Hardwareplattformen verwendet werden, um Entwicklungsteams zu entlasten.

Die Intel® Extension for Transformers ist ein weiteres wichtiges Tool, das Ihnen helfen kann, transformatorbasierte Modelle auf Intel® Plattformen zu beschleunigen. Das Toolkit bietet ein nahtloses Benutzererlebnis für die Modellkomprimierung, fortschrittliche Softwareoptimierungen, eine einzigartige komprimierungssensible Runtime sowie optimierte Modellpakete, einschließlich Stable Diffusion, GPT-J-6BM und BLOOM-176B.

Darüber hinaus bieten wir durch unsere Partnerschaft mit Accenture eine Reihe von Referenzkits an, die es Ihnen erleichtern, Ihr generatives oder sprachliches KI-Projekt zu starten.

Intel® Distribution des OpenVINO™ Toolkits

Die Intel® Distribution des OpenVINO™ Toolkit hilft Entwicklern bei der Entwicklung und Bereitstellung generativer KI dabei, Zeit zu sparen und Ergebnisse zu beschleunigen. Dieses Open-Source-Toolkit erlaubt es Entwicklern, Code einmal zu schreiben und dann überall bereitzustellen. Sie können Modelle für beliebte Frameworks – einschließlich TensorFlow, PyTorch und Caffe – bequem konvertieren, optimieren und mit beschleunigter Leistung auf den verschiedenen Arten von Hardwarearchitekturen bereitstellen, die Sie für Ihre KI-Strategie benötigen.

Sehen Sie sich zunächst die Bildgenerierung mit Stable Diffusion und Text-zu-Bild-Generierung mit ControlNet Conditioning Notebooks auf GitHub an.

Weitere Informationen zur Verwendung von Stable Diffusion auf Intel® GPUs und CPUs mit der Intel® Distribution des OpenVINO™ Toolkit finden Sie in diesem Artikel.

Hugging Face-Partnerschaft für generative KI

Um das Trainieren sowie Innovationen im Bereich generativer und sprachlicher KI zu vereinfachen, hat sich Intel mit Hugging Face zusammengetan, einer beliebten Plattform für den Austausch von KI-Modellen und -Datensätzen. Hugging Face ist besonders bekannt für seine für NLP entwickelte Transformatoren-Bibliothek.

Wir haben mit Hugging Face an der Entwicklung modernster Hardware- und Softwarebeschleunigung zusammengearbeitet, um Transformatormodelle zu trainieren, fein abzustimmen und Vorhersagen damit zu treffen. Die Hardwarebeschleunigung wird von skalierbaren Intel® Xeon® Prozessoren angetrieben, während die Softwarebeschleunigung auf unserem Portfolio an optimierten KI-Softwaretools, -Frameworks und -Bibliotheken beruht.

Optimum Intel dient als Schnittstelle zwischen der Hugging Face-Transformator-Bibliothek und unseren verschiedenen Tools und Bibliotheken, die End-to-End-Pipelines auf Intel® Architekturen einschließlich Intel® Neural Compressor beschleunigen. Intel Labs, UKP Lab und Hugging Face haben außerdem zusammen an der Entwicklung von SetFit gearbeitet, einem effizienten Framework für die Feinabstimmung von Satztransformatoren.

Habana® Gaudi® – Deep-Learning-Beschleuniger von Intel – werden über die Habana® Optimum Library auch mit der Open-Source-Software Hugging Face kombiniert, um Entwicklern eine einfache Verwendung bei Tausenden von Modellen zu ermöglichen, die bereits von der Hugging Face-Community optimiert wurden.

Zudem hat Hugging Face verschiedene Bewertungen der Leistung von Habana® Gaudi®2 bei generativen KI-Modellen veröffentlicht: Stable Diffusion, T5-3B, BLOOMZ 176B und 7B und das neue BridgeTower-Modell.

Weitere Ressourcen zur Ausführung von Stable Diffusion über die Intel® Distribution des OpenVINO™ Toolkit sind auch bei Hugging Face verfügbar.

Weitere Informationen dazu, wie Intel und Hugging Face Ihnen bei der Planung und Optimierung Ihrer generativen KI-Lösung helfen können, finden Sie unter:

Hardware-Empfehlungen für das Trainieren und Bereitstellen von generativer KI

Zwar ist das richtige Softwaretoolset für eine erfolgreiche Bereitstellung generativer und sprachlicher KI von entscheidender Bedeutung, doch spielt auch die Hardware eine wichtige Rolle. Seitdem es KI aus den Laboren in den Alltag geschafft hat, sind Skalierbarkeit und Nachhaltigkeit zu zentralen Anliegen beim Trainieren und Inferenzieren geworden.

Die Rechenanforderungen bei der Bereitstellung Ihrer generativen oder sprachlichen KI-Modelle können je nach der Anzahl der beteiligten Parameter stark variieren. Dasselbe gilt auch für das Trainieren des Modells. Unabhängig vom Umfang Ihrer Initiative bietet Intel eine Hardwarelösung, die genau zu Ihren Anforderungen passt.

Trainieren und Inferenzieren im großen Maßstab: Habana® Gaudi®2

Für große Trainings-, Feinabstimmungs- und Inferenzaufgaben von generativen KI-Workloads wird spezielle KI-Hardware benötigt. Hier kommen unsere Habana® Lösungen ins Spiel.

Je nach Ihrem Schulungs- und Bereitstellungsbedarf können Habana® Gaudi®2 Umgebungen von einem einzelnen Beschleuniger bis zu einem Habana® Gaudi®2 Cluster mit Tausenden von Beschleunigern auf acht beschleunigerfähigen KI-Servern skalieren. In Intel® Developer Cloud können Sie sich die Vorteile einer Ausführung von Trainings- und Inferenz-Workloads auf der Habana® Gaudi®2 Plattform ansehen.

Weitere Informationen zu den fortschrittlichen Leistungsmerkmalen von Habana® Gaudi®2 Lösungen finden Sie unter https://habana.ai/blog/.

Trainieren und Inferenzieren im mittleren Maßstab: Skalierbare Intel® Xeon® Prozessoren mit integrierten Beschleuniger-Engines oder separater Grafik

Generell empfehlen wir für die Feinabstimmung von generativen KI-Inferenzmodellen und weniger anspruchsvolle Trainings-Workloads skalierbare Intel® Xeon® Prozessoren. Die Lösungen können bei fortgeschritteneren Workloads mit einer separaten GPU erweitert werden.

Für maximale Kosteneffizienz Ihrer Bereitstellung verfügen die neuesten skalierbaren Intel® Xeon® Prozessoren über zwei leistungsstarke, integrierte KI-Beschleunigungs-Engines:

Dank dieser integrierten Funktionen können Sie skalierbare Intel® Xeon® Prozessoren zur Unterstützung anspruchsvollerer Inferenz- und Trainings-Workloads verwenden, ohne in spezielle Hardware investieren zu müssen. So können Sie die Kosteneffizienz und Skalierbarkeit Ihrer KI-Lösung deutlich verbessern.

Inferenz im kleinen Maßstab: Intel® Core® Prozessoren mit integrierter oder separater Grafik

Für grundlegende Inferenzaufgaben wie Edge-Umgebungen können Intel® Core™ Ultra Prozessoren bereitgestellt werden, um die Kosteneffizienz zu maximieren und gleichzeitig alle Leistungsanforderungen zu erfüllen. Die Prozessoren verfügen über integrierte Grafik, die viele Inferenzaufgaben geringer Komplexität bewältigen kann. Sie lassen sich auch mit Intel® Arc™ Grafik erweitern, um die Leistung zu verbessern und höhere Komplexität zu unterstützen.

Darüber hinaus stellen Intel® Core™ Ultra Prozessoren für komplexe Workloads über leistungsstarke integrierte Grafikfunktionen oder durch Erweiterung mit separaten Grafikbeschleunigern auch leistungsstarke Inferenzfunktionen bereit. Wenn Sie sich beim Inferenzieren auf Allzweck-CPUs verlassen, können Sie die allgemeine Flexibilität dank Unterstützung für eine größere Palette von Workloads verbessern, sollten sich Ihre Anforderungen ändern.

Bauen Sie noch heute auf der Intel® AI-Plattform auf

Die Breite und Tiefe des Intel® AI-Hardware- und -Softwareportfolios bieten Ihnen unzählige Möglichkeiten, KI-Innovationen mit Sicherheit, minimierten Risiken und maximaler Flexibilität umzusetzen. Wir tragen dazu bei, Ihre Initiative für generative und sprachliche KI zum Erfolg zu bringen – unabhängig davon, ob Sie ein Modell von Grund auf trainieren, einen vorhandenen Algorithmus fein abstimmen oder nach einer Möglichkeit suchen, in großem Umfang fortgeschrittene Inferenzierung auszuführen.

Weitere Informationen zu unserem umfassenden KI-Portfolio und zu den Vorteilen von Intel® Technologien finden Sie unter: