KI-Tech-Stack – Lösungen

Erfahren Sie mehr über die Schichten im KI-Tech-Stack sowie die Technologien, Tools und Prozesse, die der Entwicklung und Bereitstellung kompletter Lösungen für künstliche Intelligenz (KI) dienen.

Schlüsselüberlegungen zum KI-Tech-Stack

  • KI-Lösungen sind auf einen KI-Tech-Stack angewiesen, der Anwendungs-, Modell-, Daten- und Infrastrukturschichten umfasst.

  • CPUs, GPUs, FPGAs und KI-Beschleuniger sind wichtige Hardware-Elemente des KI-Tech-Stacks, die der Ausführung von KI-Anwendungen dienen.

  • KI-Frameworks und KI-Bibliotheken erlauben es Entwicklern, KI-Software mit Code-Beispielen und Toolsets schneller zu erstellen.

author-image

Von

Was ist ein KI-Tech-Stack?

Ein Technologie-Stack für künstliche Intelligenz ist eine Komplettlösung, die aus Hardware, Software und Tools besteht, um die Entwicklung und Bereitstellung von KI-Anwendungen zu erleichtern. Der KI-Tech-Stack ähnelt dem Technologie-Stack, der für die Entwicklung von allgemeinen Softwareanwendungen verwendet wird. Er umfasst aber spezielle Tools zur Unterstützung der Erstellung von KI-Modellen, die maschinelles Lernen und Deep Learning ermöglichen.

Der KI-Tech-Stack beinhaltet vier wichtige grundlegende Schichten: die Anwendungsschicht, die Modellschicht, die Datenschicht und die Infrastrukturschicht.

Die Anwendungsschicht

Die Anwendungsschicht des KI-Tech-Stacks umfasst jegliche Software, Benutzerschnittstellen und Funktionen für Zugänglichkeit, die es Benutzern erlauben, mit den zugrunde liegenden KI-Modellen und Datensätzen zu interagieren, die eine KI-Lösung bilden. Browser-basierte Schnittstellen ermöglichen es Benutzern beispielsweise, Fragen an ein generatives KI-Modell wie ChatGPT zu senden. Eine Suite zur Datenanalyse wiederum kann Visualisierungen in Form von Diagrammen und Tabellen bereitstellen, um Benutzern dabei zu helfen, die Ergebnisse des KI-Modells zu verstehen.

Die Modellschicht

Die Modellschicht des KI-Tech-Stacks ist der Ort, an dem KI-Modelle entwickelt, trainiert und optimiert werden. KI-Modelle werden mit einer Kombination aus KI-Frameworks, Toolsets und Bibliotheken entwickelt und anschließend mit riesigen Datenmengen trainiert, um ihre Entscheidungsprozesse zu verfeinern.

Die Datenschicht

Diese Schicht konzentriert sich auf die Sammlung, Speicherung und Verwaltung von Datensätzen und interagiert mit und unterstützt alle anderen Schichten. Daten aus dieser Schicht werden in die Modellschicht eingespeist, während neue Daten aus der Anwendungsschicht hier für zukünftige Modellanalysen erfasst werden. Die Infrastrukturschicht stellt jene Ressourcen bereit, die für die Skalierung, Sicherung und zuverlässige Verarbeitung der Daten benötigt werden.

Die Infrastrukturschicht

Die Infrastrukturschicht des KI-Tech-Stacks umfasst alle Hardware- und Computing-Ressourcen, die für die Ausführung der KI-Modelle und jegliche benutzerorientierte Software benötigt werden. Dazu können Unternehmensrechenzentren, Cloud-Server, Client-Geräte wie Laptops und Desktop-KI-PCs oder auch Edge-Geräte wie Sensoren und intelligente Kameras gehören.

KI-Workflows

Die erfolgreiche Bereitstellung eines KI-Tech-Stacks ist auf KI-Workflows angewiesen, die die sequenziellen Schritte zur Entwicklung und Schulung eines KI-Modells umfassen, wobei die Reihenfolge Daten, Modell und Bereitstellung lautet:

 

  • Der Datenschritt umfasst alle formalen Datenerfassungs- oder -generierungsprozesse, gefolgt von der Vorverarbeitung und Speicherung. Dieser Schritt bereitet Daten für die Verwendung durch ein KI-Modell vor, entweder für das Trainieren oder Inferenzieren.
  • Der zweite Schritt, die KI-Modellierung, beinhaltet die Entwicklung eines KI-Modells durch Überlagerung von Algorithmen, sodass ein neuronales Netz entsteht, das die logischen Muster und Entscheidungsmuster des menschlichen Verstands simuliert.
  • Der letzte Schritt, die Bereitstellung, erfolgt, wenn das KI-Modell in einem realen Anwendungsfall bereitgestellt wird. Das kann zum Beispiel ein personalisierter KI-Chatbot sein, der Benutzeranfragen mit nur minimalen oder gar keinen menschlichen Eingriffen beantwortet.

Komponenten einer KI-Lösung

Viele der zugrunde liegenden Komponenten eines KI-Tech-Stacks werden den meisten Fachleuten, die mit Technologie arbeiten, vertraut sein. Sie beinhalten Hardware, Netzwerktechnik und Software. Komponenten und Tools im KI-Tech-Stack wurden jedoch speziell entwickelt, um den individuellen Anforderungen von KI-Workloads gerecht zu werden.

KI-Hardware

KI-Hardware umfasst alle Halbleiterchips bzw. Bare-Metal-Komponenten, aus denen eine KI-Bereitstellung und die grundlegende Schicht des KI-Tech-Stacks besteht.

CPUs

Die CPU bzw. der Prozessor führt die logischen Befehle aus, die einen Computer zum Laufen bringen. Innerhalb der Architektur eines Prozessors kann ein Single-Thread-Prozessorkern einen einzelnen Befehl auf einmal ausführen, während ein Multi-Thread-Kern zwei Befehle gleichzeitig ausführen kann. Bei KI-Workloads bieten Multi-Thread-Kerne mehr Leistung als Single-Thread-Kerne. Sie können KI-Modelle mit höherer Effizienz trainieren.

Erfahren Sie mehr über KI-Prozessoren.

GPUs

GPUs (Graphics Processing Units) sind spezielle Komponenten, die für die Verarbeitung von Grafik-Workloads entwickelt wurden. Sie weisen eine Vielzahl von Ausführungseinheiten auf, die parallel arbeiten. Grafik-Workloads und KI-Workloads nutzen dieselbe Art von Operationen. Aus dem Grund kommen in vielen KI-Umgebungen GPUs zum Einsatz. GPUs sind als discreteGPU (dGPU)-Plug-in-Karten oder in die Architektur einer CPU integrierte GPUs (iGPUs) verfügbar. Während dGPUs in KI-Servern häufiger zum Einsatz kommen, werden in Client-Computern oder Edge-Geräten iGPUs bevorzugt.

Erfahren Sie mehr über GPUs für KI.

FPGAs

Field-Programmable Gate Arrays (FPGAs) sind separate Plug-in-Karten zur Verarbeitung von Daten, deren Funktionalität nach der Fertigung angepasst werden kann. Darum sind FPGAs besonders flexibel, wenn es darum geht, die Bewegung, Verschlüsselung oder Verarbeitung von Daten für verschiedene Workloads (inkl. KI) zu beschleunigen.

Erfahren Sie mehr über FPGAs für KI.

KI-Beschleuniger

Separate KI-Beschleuniger sind spezielle Hardwarekomponenten, die für die Verarbeitung von KI-Workloads entwickelt wurden und ideal für Scale-out-Bereitstellungen im Rechenzentrum sind. Bestimmte separate KI-Beschleuniger können Funktionen wie integrierte Netzwerktechnik bieten, um Infrastrukturkosten zu reduzieren und gleichzeitig KI-Trainings- und Inferenzleistung zu ermöglichen, die mit GPUs vergleichbar ist.

Erfahren Sie mehr über KI-Beschleuniger.

Edge-KI

AI at the Edge nutzt viele der gleichen zuvor aufgeführten KI-Hardwarekomponenten, einschließlich CPUs, GPUs, FPGAs und KI-Beschleunigern. Der Hauptunterschied besteht darin, wo die Systeme bereitgestellt werden. Während viele Unternehmen KI in ihren Rechenzentren bereitstellen, steht Edge-KI für KI-Systeme, die in Edge-Umgebungen wie an städtischen Kreuzungen, in Einzelhandelsgeschäften oder in Fabrikhallen bereitgestellt werden.

Edge-KI inferenziert Daten am Punkt der Generierung für Analysen und Aktionen in nahezu Echtzeit. Aus dem Grund kann Edge-KI bei Inferenzaufgaben kostengünstiger sein als das Senden von Daten in die Cloud und zurück, da weniger Netzwerkinfrastruktur und weniger Cloud-basierte Ressourcen benötigt werden.

Mehr über Edge-KI.

KI-Server

KI-Server sind Computer, die für die Anforderungen von KI-Workloads entwickelt wurden und anderen Systemen, die von Unternehmen und Endbenutzern verwendet werden, Dienste, Anwendungen und Daten bereitstellen. KI-Server kombinieren KI-Prozessoren, Beschleuniger und Netzwerk-Hardware, um die Speicherung und Vorbereitung von Daten sowie das Trainieren von KI-Modellen und Inferenzaufgaben zu unterstützen. Rechenzentren von Unternehmen bestehen aus verschiedenen KI-Servern, während Edge-KI-Bereitstellungen zum Erledigen ihrer Aufgaben ggf. auf einen oder mehrere Edge-KI-Server zurückgreifen.

Erfahren Sie mehr über KI-Server.

KI-Netzwerktechnik

Leistungsstarke Netzwerktechnik ist eine wesentliche Komponente der technischen Infrastruktur, die einen effizienten und sicheren Betrieb von KI-Anwendungen ermöglicht. Netzwerktechnik für KI muss zuverlässige Verbindungen bereitstellen, die robust, effizient, sicher und flexibel sind. KI kann überall implementiert werden, sodass Netzwerklösungen kabelgebundene, kabellose und virtualisierte Verbindungen zwischen und innerhalb ungleichartigen Systemen und Geräten im KI-Rechenzentrum, in Clients, in der Cloud und am Edge umfassen können. Außerdem sind für den Schutz der enormen Datenmengen (einschließlich personenbezogener Daten von Benutzern, die Algorithmen für maschinelles Lernen und andere KI-Programme nutzen) robuste Netzwerksicherheitsfunktionen unerlässlich.

Weitere Informationen über Netzwerktechnik für KI.

KI-Software

Wie andere Software auch ist KI Code, der auf Hardware ausgeführt wird. KI-Software kann viele verschiedene Codiersprachen nutzen, einschließlich Python, Java oder C++. Entwickler verwenden KI-Frameworks zum Erstellen, Trainieren und Bereitstellen von KI-Modellen. KI-Frameworks greifen auf KI-Bibliotheken und -Toolkits zurück, um die Entwicklung von KI mit vorgefertigten Elementen und Code-Beispielen zu erleichtern. KI-Software unterstützt die Entwicklung sowohl der Modell- als auch der Anwendungsschicht des KI-Tech-Stacks.

KI-Frameworks

Ein KI-Framework ist eine Plattform und wird gleichzeitig auch als Anwendung betrachtet. Entwickler verwenden KI-Frameworks, um KI-Lösungen zu erstellen, zu trainieren und bereitzustellen. KI-Frameworks kombinieren verschiedene Methoden, unterstützen eine oder mehrere Codiersprachen und können eine Schnittstelle bereitstellen, um die Navigation und Bearbeitung von Code zu erleichtern. Beispiele für KI-Frameworks sind PyTorch und TensorFlow.

KI-Bibliotheken

KI-Bibliotheken sind Sammlungen mit modularen, vorgefertigten KI-Funktionen und Code-Beispielen, die Entwickler verwenden können, um eigene KI-Modelle zu entwickeln, ohne sie von Grund auf neu erstellen zu müssen. KI-Frameworks greifen auf KI-Bibliotheken zurück, um die KI-Entwicklung zu beschleunigen. Beispiele für KI-Bibliotheken sind Keras und Scikit-learn.