Was ist Edge-KI?
Innovative Funktionen im Edge-Bereich verbinden – unterstützt durch Fortschritte in der Verarbeitungsleistung und der Effizienz – die physische mit der digitalen Welt. Edge-KI erweitert die Funktionalität von lokalen Geräten und Sensoren um KI und ermöglicht so schnelle Datenanalyse und Aktionen unabhängig von der Cloud oder dem Rechenzentrum. So lassen sich Reaktionsverhalten und Erkenntnisgewinnung praktisch in Echtzeit realisieren. Außerdem steigt die Effizienz, die Betriebskosten gehen zurück, und für das Benutzererlebnis ergeben sich neuartige Optionen.
Bedeutung von KI im Edge-Umfeld
Unabhängig davon, ob das Ziel letzten Endes darin besteht, die Abläufe in der medizinischen Bildgebung zu automatisieren, um die Diagnose zu beschleunigen, oder darin, die betriebliche Effizienz in einer Metallverarbeitungsfabrik zu verbessern, ist die Aufgabe von KI am Netzwerkrand stets dieselbe: Daten schneller nutzen, um schneller zu agieren. Die KI erreicht dies durch einen Vorgang, der als Inferenz bezeichnet wird.
Bei der Inferenz werden Live-Eingabedaten in ein KI-Modell eingespeist, das zuvor dafür trainiert wurde, Funktionen wie das Treffen von Entscheidungen, das Senden von Warnmeldungen, das Bereitstellen von Erkenntnissen oder das Erledigen von Aufgaben wie das Sortieren von Bildern auszuführen.
Edge-KI verwendet häufig IoT-Geräte (Internet der Dinge), wie Kameras, Datenquellen und Sensoren, um Daten in der physischen Welt zu sammeln und zu analysieren. Angenommen, ein Energie- bzw. Versorgungsunternehmen möchte seine Anlagen, Pipelines oder Netze vor Übeltätern schützen. Sicherheitsvideo- und Sensordaten können von den Systemen am Netzwerkrand verarbeitet und die Zuständigen können automatisch nahezu in Echtzeit auf Bedrohungen aufmerksam gemacht werden. Edge-KI hat die Fähigkeit, Daten zu erfassen und praktisch sofort zu verarbeiten, was die Möglichkeiten eines Unternehmens erheblich erweitert und eine Reihe KI-basierter Anwendungen und Funktionen im Edge-Umfeld gestattet. Die Anwendungsfälle für Edge-KI in verschiedensten Branchen sind sehr vielseitig, vom Chatbot in einem Bankautomaten bis zu Autos mit automatisierten Funktionen für die Spurhaltung und die Vermeidung von Kollisionen und zur praktisch in Echtzeit stattfindenden Warnung vor Sicherheitsgefährdungen oder Vorfällen auf städtischen Straßen oder in Werksumgebungen.
Edge-KI im Vergleich zu sonst üblicher KI
KI war ursprünglich in der Cloud zu Hause, wobei die Daten an das Rechenzentrum gesendet, dort verarbeitet und nach der Analyse zurückgegeben werden. Solche Cloud-zentrierten Modelle für die Datenverarbeitungsinfrastruktur sind nicht ideal für zeitkritische Unternehmensprozesse und Betriebsabläufe.
Bei vielen Anwendungsfällen für Inferenz in Unternehmen ist die besonders schnelle Datenanalyse von Vorteil. Sie erfordern oft Datenverarbeitung in Echtzeit und müssen strenge Anforderungen an die Latenz erfüllen. Häufig ist die Umsetzung an Orten mit schlechter Konnektivität notwendig, was die Lösungen anfällig für Verzögerungen und Fehler durch Datenpaketverlust bei der Übertragung zur und von der Cloud macht.
Um diese Anforderungen und Probleme zu bewältigen, führt Edge-KI die Datenanalyse an der Datenquelle aus, also z. B. in der Maschinenhalle, im Klinikbereich oder im Einzelhandelsgeschäft. Algorithmen werden vor Ort eingesetzt, wo die Daten entweder in einem zentralen Hub oder direkt von Edge-Geräten mit integrierten Prozessoren verarbeitet werden.
Hybride Edge-KI
Die beiden Konzepte – Edge-KI und Cloud-KI – schließen sich nicht gegenseitig aus. Im Zuge der weiteren Entwicklung von KI im Edge-Umfeld wird erwartet, dass sich ein hybrides Edge-Konzept durchsetzt, bei dem Inferenz-Workloads zwischen Edge-Systemen und der Cloud aufgeteilt werden. Die Idee, die hinter diesem Konzept steckt, ist, die so gut wie in Echtzeit gewonnen Erkenntnisse auf Edge-Ebene durch tieferen Kontext in der Cloud zu untermauern.
Durch die Kombination der Schnelligkeit und Effizienz von Edge-Systemen mit skalierbaren Cloud-basierten Ressourcen wird das hybride Edge-Konzept fortschrittlichste Anwendungen für unterschiedliche Bereitstellungsumgebungen und Leistungsanforderungen ermöglichen. Ein hybrides Konzept wird es Unternehmen auch ermöglichen, Informationen aus mehreren Modellen in ihren Prozessen zu aggregieren.
Edge-KI wird zwar oftmals mit Computervision in Verbindung gebracht, doch die Edge-KI-Welt dehnt sich schnell aus und umfasst Multi-Modell-Anwendungen mit generativer KI (GenAI), natürlicher Sprache (Text-zu-Sprache, Chatbots) und Robotik. Diese neuen Anwendungsfälle werden voraussichtlich Branchen revolutionieren. In der Fertigung könnte durch generative KI gesteuerte Software eine agile und dynamische Lieferkette ermöglichen, während autonome Fahrzeuge und eine intelligente Infrastruktur Smart Cities dabei helfen könnten, die Belastung der Umwelt zu reduzieren und den Verkehrsfluss zu optimieren.
Vorteile von Edge-KI
Edge-KI kann Unternehmen helfen, eine Vielzahl komplexer Herausforderungen zu meistern, um praktische Probleme zu lösen. Hier sind einige Vorteile der Einführung von KI bei Edge-Systemen:
- Schnelligkeit und Effizienz von Betriebsabläufen: KI-basierte Automation im Edge-Umfeld hat entscheidende Bedeutung für die Innovation und ermöglicht autonome Betriebsabläufe quasi in Echtzeit, wodurch Verzögerungen wie bei Cloud-basierter Verarbeitung vermieden werden. Latenz und Netzwerk-Engpässe werden minimiert, was die Datenübertragungsraten steigert.
- Wirtschaftlichkeit: Die wachsende durch Sensoren und Geräte erzeugte Datenmenge macht Edge-Computing kostengünstiger als die Übertragung von Daten in die Cloud und zurück. Es wird weniger Bandbreite verbraucht und es werden weniger Cloud-Ressourcen benötigt, was die Betriebskosten reduziert.
- Energieeinsparung: Energieeffiziente Edge-KI-Systeme sind für energiesparende Datenverarbeitung konzipiert und können deutlich effizienter sein als Cloud-basierte Verarbeitung. Netzwerkhardware wie Router und Switches verbraucht dabei weniger Energie, da der Datenverkehr zum und vom Rechenzentrum minimiert wird.
- Sicherheit und Datenhoheit: Dass vertrauliche Daten im Edge-Umfeld verbleiben, kann Sicherheits- und Datenschutzrisiken verringern, wenn lokale Kontrolle, Autonomie und die Einhaltung von Vorschriften sichergestellt sind.
Edge-KI-Aspekte
KI in Edge-Umgebungen einzuführen, bringt im Vergleich zur Ausführung von KI in der Public oder Private Cloud neue Herausforderungen mit sich, darunter:
- KI-Erweiterung bestehender Anlagen: Viele Edge-Umgebungen basieren auf einer älteren, für eine festgelegte Funktion ausgelegten Infrastruktur mit einer Vielzahl proprietärer Hardware- und Softwarekomponenten. Proprietäre Technik mit inkompatiblen Formaten kann bei der Integration einer Edge-Lösung technische Probleme verursachen.
- Training- und Optimierungsmodelle: Edge-KI-Modelle haben spezifische Eigenschaften und müssen an bestimmte Branchen oder Anwendungsfälle angepasst werden. Menschliches Fachwissen ist in diesen Fällen oft von entscheidender Bedeutung. Unternehmen benötigen einfache Tools, die andere Fachkräfte als Datenwissenschaftler dabei unterstützen, ihr Wissen in KI-Funktionalität zu verwandeln.
- Berücksichtigung der Hardware-Vielfalt: Edge-native Anwendungen werden wahrscheinlich eine Vielzahl von Knoten, Betriebssystemen, Netzwerkprotokollen, Datenverarbeitungs- und Datenspeicheranforderungen, Energie- und Kosteneinschränkungen sowie Compliance-Aspekten umfassen. Entwickler benötigen Möglichkeiten, mit dieser Komplexität umzugehen und eine verteilte heterogene Computing-Umgebung zu unterstützen.
- Sicherheit und Verwaltung verteilter Anwendungen: Unternehmen stehen vor neuen Herausforderungen, wenn sie fortschrittliche KI im Edge-Umfeld unterstützen möchten. Verwaltbarkeit ist für die Anwendung von KI im großen Maßstab von entscheidender Bedeutung, und Sicherheit ist bei jedem Schritt der Umsetzung eine Notwendigkeit.
- Projektplanung für unwirtliche (rugged) oder eingeschränkte Bedingungen: Edge-Umgebungen setzen KI-Hardware verschiedenen Belastungen wie Wärme, Feuchtigkeit oder Erschütterungen aus. Edge-KI-Lösungen für Anwendungsfälle wie Verkehrsüberwachung oder Qualitätssicherung müssen oft in beengten Umgebungen platziert werden. Dies alles mit einem geringen Energieverbrauch zu realisieren, ist auch wichtig für die Kostenkontrolle und die Förderung der Nachhaltigkeit.
Edge-KI-Lösungen
Die Modernisierung von Geschäftsabläufen mit Edge-KI-Technik ist eine tiefgründige Angelegenheit mit vielen Facetten. Einige Firmen, zum Beispiel in der Fertigung und der Industrie, werden bei ihrer Entwicklung zu einem digitalen Unternehmen, das Daten nahezu in Echtzeit verwendet, um einen Mehrwert zu erzielen, versucht sein, ältere Betriebsanlagen mit Edge-Technik und „Intelligenz“ zu erweitern. Andere wie solche in der Finanz- und Gesundheitsbranche arbeiten mit umfangreichen, datenzentrischen Betriebsabläufen, die für die Überwachung und Analyse durch Menschen zu groß oder uneinheitlich sind. Diese Unternehmen bzw. Einrichtungen sind auf dem Weg zur Digitalisierung und Automatisierung ihrer Datenprozesse, um schneller Muster zu entdecken und Erkenntnisse zu gewinnen und die Effizienz, Compliance und Datensicherheit zu verbessern.
Unabhängig davon, welche Herausforderungen ein Unternehmen zu bewältigen versucht, ist es empfehlenswert, die Einführung von KI in Phasen anzugehen. Während die anspruchsvollsten und weitreichendsten Anwendungsfälle eine KI-Tech-Gesamtlösung mit Edge-to-Cloud-Technologie erfordern werden, kann der Einstieg mit Edge-KI ohne größere Investitionen in die Infrastruktur erfolgen. Unternehmen, die aktuell mit Edge-Umgebungen arbeiten, sind wahrscheinlich schon heute bereit, mit KI zu beginnen. Vorhandene Edge-Computing-Ressourcen wie POS-Systeme (Point of Sale), Industrie-PCs und lokale Server in Einrichtungen der Gesundheitsversorgung können viele KI-Workloads unterstützen, einschließlich Computervision.
Aspekte der Integration
Die größte Herausforderung bei der Implementierung einer Edge-KI-Lösung besteht darin, die mit der Koordination der verschiedenen Komponenten der Lösung verbundene Komplexität zu überwinden, darunter Computing-Infrastruktur, IoT-Geräte und ältere Systeme. Eine vereinheitlichte IT-Plattform kann diese Komplexität reduzieren und die Interoperabilität zwischen mehreren KI-Umgebungen sowie die Standardisierung in einer heterogenen Infrastruktur fördern, wodurch eine einheitliche Struktur von der Edge-Ebene bis zur Cloud geschaffen wird.
Hardware-Aspekte
Unabhängig davon, ob Modelle in der Cloud trainiert, ob sie optimiert oder auf Edge-Systemen bereitgestellt werden, kann die Auswahl der geeigneten KI-Hardware Unternehmen helfen, ihre Anschaffungen richtig zu dimensionieren und den Leistungsanforderungen zu entsprechen.
KI-Prozessoren unterstützen die gesamte KI-Pipeline – vom Trainieren extrem komplexer Modelle bis zu einfacheren KI-Anforderungen, einschließlich der Integration von KI in Endbenutzergeräte:
- CPUs (Central Processing Units) mit integrierten Beschleuniger-Engines können viele fortgeschrittene Edge-KI-Workloads ohne die Notwendigkeit spezieller Hardware unterstützen.
- GPU-Lösungen können im Rechenzentrum, im Edge-Umfeld oder in Endgeräten die Verarbeitung anspruchsvollster Workloads unterstützen.
- FPGAs werden oft als KI-Beschleuniger und KI-Prozessoren verwendet, um KI-Workloads von Edge-Systemen bis zur Cloud zu ermöglichen. Im Vergleich zu CPUs und GPUs können FPGAs vielseitiger eingesetzt und zur Anpassung an eine Vielzahl von Anwendungsfällen neu konfiguriert werden. FPGAs kombinieren Schnelligkeit, Programmierbarkeit und Flexibilität und bieten so hohe Leistung ohne die Kosten und Komplexität der Entwicklung kundenspezifischer Chips.
Wahl eines Einführungskonzepts
Unternehmen und Einrichtungen, die KI-Anwendungen auf Systeme am Netzwerkrand ausweiten möchten, lassen sich allgemein in drei Kategorien einteilen: diejenigen, die eine für einen bestimmten Zweck entwickelte KI-Lösung oder -Anwendung erwerben möchten, diejenigen, die ihre eigene KI-Anwendung entwickeln möchten, und diejenigen, die ihre KI-Ziele durch eine Kombination der beiden anderen Ansätze erreichen möchten.
Entwicklung einer KI-Lösung: Wenn es darum geht, von Grund auf eigene Edge-KI-Lösungen zu implementieren, können herstellerunabhängige, Edge-native Softwareplattformen bei der Entwicklung, Bereitstellung und stufenweisen Anpassung von KI-Workflows hilfreich sein und die breiteste Interoperabilität und Protokollunterstützung bieten. Edge-native Plattformen machen es nach der Bereitstellung außerdem einfacher, KI-Software in allen verteilten Edge-Umgebungen zu verwalten und zu aktualisieren.
Bei der Beurteilung von Plattformen ist es wichtig, auf folgende Punkte zu achten:
- Unterstützung für die heterogenen Computing-Umgebungen, die in Edge-Umgebungen häufig vorliegen
- Offene Standards zur Unterstützung der Zukunftssicherheit von KI-Projekten
- Optionen für Pro- und Low-Code-Entwicklung
- Möglichkeit, bestehende Anwendungen zu importieren
- Integrierte Telemetrie-Dashboards, die bei der richtigen Dimensionierung der Hardware und der Optimierung von Anwendungen helfen
- Integrierte Sicherheitsfunktionen
- Cloud-ähnliche Funktionen für Autoscaling und Containerisierung
Beschaffung einsatzbereiter KI-Lösungen: Unternehmen können KI-Lösungen auch von einem Lösungsanbieter oder Systemintegrator erwerben. Diese Anbieter stellen integrierte Hardware- und Softwaresysteme bereit, die auf branchenspezifische Anwendungsfälle und Anforderungen zugeschnitten sind. Es ist wichtig, eine marktreife Lösung zu wählen, die interoperable KI-Funktionen bietet und nachweislich mit Erfolg in der Branche und fachspezifisch implementiert wurde.
Verfolgung eines kombinierten Konzepts: Viele Unternehmen sind der Ansicht, dass die Kombination ihrer eigenen Entwicklungsarbeit mit vorgefertigten Komponenten die effizienteste Methode für den KI-Erfolg sein kann. Es gibt eine Reihe von Tutorials und Ressourcen, die Edge-KI-Anwendungsfälle darstellen und die helfen können, die Zeit bis zur Wertschöpfung zu verkürzen und die Entwicklung zu vereinfachen. Darüber hinaus gibt es eine Vielzahl von Softwareressourcen, die dazu beitragen können, die weitere Entwicklung zu erleichtern, wie Frameworks, Toolkits, branchenspezifische Entwicklungstools, Referenzarchitekturen und Referenzimplementierungen.