KI-Modellierung: Intelligence in der Analyse fördern

Ein Überblick über KI-Modellierung

  • KI-Modellierung ist die Erstellung, das Training und die Implementierung von Algorithmen für maschinelles Lernen, die anhand verfügbarer Daten logische Entscheidungsprozesse nachahmen.

  • KI-Modelle bieten eine Grundlage zur Unterstützung fortschrittlicher Intelligence-Methoden wie der Echtzeitanalyse, vorausschauender Analysen und erweiterter Analysen.

  • Intel bietet Hardwarelösungen, die KI beschleunigen. Softwarelösungen, die auf Intel® Architektur optimiert wurden, bieten nicht nur mehr Leistung, sondern erleichtern auch die Entwicklung und Implementierung von KI-Bereitstellungen.

author-image

By

Was ist KI-Modellierung?

Die dritte Phase der Datenpipeline, nach der Datenerfassung und Datenvorbereitung, umfasst die Erstellung intelligenter Modelle maschinellen Lernens zur Unterstützung fortschrittlicher Analysen. Diese Modelle verwenden verschiedene Arten von Algorithmen, wie z. B. lineare oder logistische Regression, um Muster in den Daten zu erkennen und daraus auf ähnliche Weise Schlüsse zu zeichnen, wie es Menschen aufgrund ihres Wissens tun. Kurz gesagt: KI-Modellierung ist der Aufbau eines Entscheidungsprozesses, der drei grundlegenden Schritten folgt:

  • Modellierung: Der erste Schritt ist die Zusammenstellung eines KI-Modells, das einen komplexen Algorithmus oder verschiedene Ebenen von Algorithmen verwendet, die Daten auswerten und auf Grundlage dieser Daten Entscheidungen treffen. Ein erfolgreiches KI-Modell kann in beliebigen Anwendungsfällen den Platz menschlicher Erfahrungen einnehmen.
  • KI-Modelltraining: Der zweite Schritt ist das Training des KI-Modells. In den meisten Fällen besteht das Training aus der Verarbeitung großer Datenmengen anhand von iterativen Testschleifen des KI-Modells und der laufenden Überprüfung der Ergebnisse auf ihre Genauigkeit sowie der Überprüfung auf das erwartete und erwünschte Verhalten des Modells. Während dieses Prozesses stehen Engineers bereit, um das KI-Modell während des Lernens zu ändern und zu verbessern.
  • Inferenz: Der dritte Schritt wird als Inferenz bezeichnet. Dieser Schritt bezeichnet die Implementierung des KI-Modells in dem vorgesehenen realen Anwendungsfall, bei dem das KI-Modell routinemäßig logische Schlussfolgerungen aus verfügbaren Daten zieht.

KI/ML ist ein komplexer Prozess mit hoher Rechenleistung und hohen Datenspeicher-, Datensicherheits- und Netzwerkanforderungen. Skalierbare Intel® Xeon® Prozessoren, Intel® Datenspeicher- und Netzwerklösungen sowie Intel® AI Toolkits und Software-Optimierungen bieten eine Vielzahl von Ressourcen, damit Unternehmen leicht, sicher und kosteneffizient KI/ML-Lösungen entwerfen und bereitstellen können.

Maschinelles Lernen und Deep Learning

KI ist ein Dachbegriff für eine Methode, mit der Maschinen und Computer die menschliche Entscheidungskapazität auf Grundlage verfügbarer Daten nachahmen. Maschinelles Lernen bezeichnet speziell die Anwendung von KI in Form von Algorithmen, um automatisierte Aufgaben zu erledigen. Ein wichtiges Attribut des maschinellen Lernens ist seine Fähigkeit, aus der Verarbeitung von immer mehr Daten zu lernen und mit der Zeit bessere Entscheidungen zu treffen.

Deep Learning ist eine spezielle Kategorie des maschinellen Lernens, in der die Struktur von KI-Algorithmen mehrschichtig und leistungsstärker ist und ein sogenanntes neuronales Netzwerk schafft. Deep-Learning-Modelle durchlaufen weiterhin einen iterativen Testschleifenprozess, bei dem die Engineers das Modell laufend anpassen, um die Genauigkeit zu verbessern und das Modell so zu entwickeln, dass es mehr nuancierte Abweichungen erkennen kann, als das beim maschinellen Lernen möglich ist.

Häufige Arten von KI-Algorithmen

Ziel von KI-Modellen ist es, unter Einsatz eines oder mehrerer Algorithmen die Ergebnisse vorherzusehen oder Entscheidungen zu treffen, indem es versucht, die Beziehungen zwischen mehreren eingehenden Faktoren unterschiedlicher Art zu verstehen. KI-Modelle unterscheiden sich darin, wie sie diese Aufgabe angehen, und KI-Entwickler können mehrere Algorithmen gleichzeitig einsetzen, um ein anvisiertes Ziel oder eine Funktion zu erreichen.

  • Lineare Regression bildet die lineare Beziehung zwischen einem oder mehreren x-Input(s) und y-Output(s) nach, die häufig in einem einfachen Liniendiagramm dargestellt sind.
  • Logistische Regression zeigt die Beziehung zwischen einer binären x-Variablen (z. B. richtig oder falsch, vorhanden oder abwesend) und einem y-Output auf.
  • Lineare Diskrepanzanalyse geht wie die logistische Regression vor, allerdings werden die Daten zunächst nach unterschiedlichen Kategorien oder Klassifikationen gekennzeichnet.
  • Entscheidungsbäume wenden sich verzweigende Logikmuster auf eine Reihe von eingegebenen Daten an, bis der Entscheidungsbaum zu einem Schluss kommt.
  • Naive Bayes ist eine Klassifikationstechnik, die davon ausgeht, dass keine Beziehungen zwischen den anfänglichen Inputs besteht.
  • K-nearest Neighbor (nächster Nachbar) ist eine Klassifizierungstechnik, die davon ausgeht, dass Input mit Input ähnlicher Eigenschaften gruppiert wird, wenn deren Korrelation im Diagramm festgehalten wird (d. h. deren euklidischer Abstand).
  • Lernende Vektorquantisierung ist vergleichbar mit k-nearest Neighbor, aber statt den Abstand zwischen einzelnen Datenpunkten zu messen, vereint das Modell ähnliche Datenpunkte zu Prototypen.
  • Support Vector Machine Algorithmen schaffen eine Trennung, eine sogenannte Hyperplane, die Datenpunkte zwecks genauerer Klassifizierung scharf voneinander abgrenzt.
  • Bagging kombiniert mehrere Algorithmen, um ein genaueres Modell zu erstellen, während der Random Forest für eine genauere Vorhersage mehrere Entscheidungsbäume kombiniert.
  • Tiefe neuronale Netzwerke sind eine Struktur aus mehreren Ebenen von Algorithmen, die die Inputs durchlaufen müssen, um zu einer endgültigen Vorhersage oder einem Entscheidungspunkt zu gelangen.

Die technischen Anforderungen der KI-Modellierung

KI-Modelle werden so groß, dass mehr Daten zum effektiven Training benötigt werden, und je schneller Sie die Daten bewegen können, desto schneller können Sie das Modell trainieren und bereitstellen. Plattformen mit Intel Technik stellen für KI-Workloads optimierte Konfigurationen aus leistungsstarken CPUs, Datenspeicher mit hoher Kapazität und Netzwerkstrukturen mit hoher Bandbreite bereit, die den intensiven Datenstrom bewältigen können.

  • Skalierbare Intel® Xeon® Prozessoren der 3. Generation bieten eine hohe Kernanzahl, hohe Speicherkapazität, PCIe-4.0-Konnektivität und KI- und Sicherheitsfunktionen, die exklusiv auf Intel® Plattformen zu finden sind. Intel® Deep Learning Boost (Intel®DL Boost) beschleunigt Deep-Learning-Inferenz und reduziert deren Speicheranforderungen. Intel® Software Guard Extensions (Intel® SGX) hilft bei der Isolation von Workloads im Arbeitsspeicher für eine bessere Systemsicherheit und ermöglicht föderatives Lernen der KI-Modelle von Computerumgebungen unterschiedlicher Beteiligter (KI-Modelle unterschiedlicher Inhaber/Betreiber können mit denselben verschlüsselten Datensätzen trainiert werden).
  • Intel® Optane™ Technik erweitert sowohl Datenspeicher- als auch Arbeitsspeicherlösungen. Intel® Optane™ DC SSDs bieten extreme Kapazität mit PCIe-Schnittstellen, die Daten näher an der CPU positionieren und unglaubliche I/O-Geschwindigkeiten bieten. Persistenter Intel® Optane™ Speicher bietet große Kapazität mit nahezu DRAM-Leistung und ermöglicht es, dass Daten im Arbeitsspeicher während Neustarts oder dem Herunterfahren des Systems erhalten bleiben.
  • Intel® Ethernet-Netzwerkadapter der Produktreihe 800 und Intel® Silicon Photonics bieten Geschwindigkeiten bis zu 100 GbE und sind der Eckpfeiler für Strukturen in Rechenzentren mit geringer Latenz, auf denen die Analyse-Engine läuft.

Intel® Softwarelösungen für KI/ML

Schon die Vielzahl der Optionen für maschinelles Lernen und Deep-Learning-Software, die aktuell angeboten werden, kann schnell überwältigend sein. Mit Angeboten von Intel können Sie jedoch auf eine zentrale Quelle für gängige Frameworks und Bibliotheken zugreifen, die alle für Leistungsstärke auf Intel® Plattformen optimiert wurden.

  • Intel® Distribution of OpenVINO™ Toolkit ermöglicht es Ihnen, KI-Inferenz auf Plattformen mit Intel Technik zu optimieren und zu beschleunigen, um so kurze Zeiten bis zu den Ergebnissen zu erzielen. Dieses Toolkit ist sowohl für Implementierungen in Rechenzentren als auch KI-fähige Datengenerierung oder Analyse aus Implementierungen am Netzwerkrand sinnvoll.
  • Intel® AI Analytics Toolkit ist Teil der Intel® oneAPI und bietet vorab trainierte KI-Modelle. Es umfasst die Intel Distribution gängiger Frameworks wie TensorFlow, PyTorch und scikit-learn, die alle für Leistungsstärke auf Plattformen von Intel optimiert wurden. Diese Ressourcen können Entwicklern dabei helfen, ihre Bemühungen bei der KI-Modellierung und die Zeit bis zur Bereitstellung zu beschleunigen.
  • Analytics Zoo ist eine einheitliche Plattform von KI- und Analysemethoden, die für Deep-Learning-Implementierungen entwickelt wurden und auf Frameworks wie Apache Spark, TensorFlow, Keras und BigDL aufbauen. Diese Plattform umfasst auch hochgradige Abstraktionen und APIs sowie integrierte Deep-Learning-Modelle, um die Datenbankintegration und einfache Inbetriebnahme von Deep-Learning-Projekten zu erleichtern.

Intel Partner für KI-Analysen

Intel arbeitet eng mit branchenführenden Partnern in Business Intelligence und KI zusammen, um wichtige Technologien wie die skalierbaren Intel® Xeon® Prozessoren in ihre Analyseplattformen zu integrieren. Zu den BI-Anbietern (Business Intelligence) zählen SAP, Oracle und SAS.

KI-Partner sind Cloudera, Data Robot, Omni-Sci, H20, SAS und Splunk. Bei Einsatz der Intel® Technik mit diesen Plattformen profitieren Endkunden von den Intel Funktionen für Sicherheit und KI-Beschleunigung.