Rebellion der Maschinen: So vermeiden wir die KI-Apokalypse

„Terminator: Dark Fate“ kommt diesen Monat in die Kinos – eine gute Gelegenheit uns darüber zu informieren, wie wir die Risiken der KI kontrollieren können

Der Terminator ist wieder einmal auf die Leinwand zurückgekehrt und beschert uns einen beunruhigenden Ausblick auf eine postapokalyptische Welt, zerstört durch eine künstliche Intelligenz (KI), die sich entgegen unserer menschlichen Interessen entwickelt hat. Terminator: Dark Fate*, die neuste Auflage, ist in der zeitlichen und inhaltlichen Abfolge eine direkte Fortsetzung von den Geschehnissen in Terminator 2 – Tag der Abrechnung* aus dem Jahr 1991, in dem die fiktive KI Skynet ein eigenes Bewusstsein entwickelt hat und sich gegen ihre Entwickler wendet. Als ihre menschlichen Schöpfer in Panik geraten und versuchen, Skynet auszuschalten, startet die KI einen Atomraketenangriff auf eine Bevölkerung, die keine Fluchtmöglichkeit hat und löst so einen unausweichlichen Krieg der Mensch gegen Killer-Bots aus.

„Bei KI geht es nicht nur darum, eine gut funktionierende Technologie herzustellen; man muss auch die passenden Richtlinien bestimmen.“

In der realen Welt wird ein böswilliger Supercomputer, der die Weltherrschaft an sich reißt, wahrscheinlich nicht in absehbarer Zeit auftauchen, aber KI kann bereits heute Menschen bei Spielen wie Schach und dem chinesischen Strategiespiel Go besiegen. Darüber hinaus nimmt KI einen immer größeren Platz in unserem Alltag ein – von den Serien-Empfehlungen auf Netflix* bis zu den sprachgesteuerten Smart-Lautsprechern, die wir zu Hause benutzen. Auch wenn KI unsere Gesellschaft positiv verändern wird – zum Beispiel in den Bereichen autonomes Fahren und Krebsdiagnostik – so besteht doch immer ein Restrisiko, wenn wir nicht alle Auswirkungen bedenken und Grenzen für die Verwendung festlegen.

Subjektive Verzerrung in der KI

Außerdem besteht das Risiko, dass unser Verständnis von KI nicht mit ihrer Entwicklung Schritt halten kann. Während schädliche KI wahrscheinlich nicht in Form von Cyborg-Killern aus der Zukunft kommen wird, könnte sie uns doch auf eine subtilere Art und Weise beeinflussen – und dieses Feld muss noch weiter erforscht werden. Eine der größten Herausforderungen bei der Entwicklung nützlicher KI ist eine Verzerrung durch menschliche Voreingenommenheit. KI-Systeme spiegeln unweigerlich die unbewussten Annahmen der Menschen wider, die Sie erstellen. Und wenn die Entwickler von KI-Systemen alle zur selben demografischen Gruppe gehören, dann können die Algorithmen nur voreingenommen sein.

Die Qualität der Daten, mit denen KI gefüttert wird, ist ebenfalls wichtig. Wir sehen bereits die Ergebnisse eines Mangels an Trainingsdaten bei Spracherkennungssystemen. Diese Systeme, die oft mit „Standard“-Sprachdaten von Männern trainiert werden, sind dafür bekannt, Frauenstimmen und regionale Akzente nur schwer zu erkennen. Im Extremfall könnte ein medizinischer KI-Algorithmus verfälschte Prognosen erstellen, wenn er mit nur einer demografischen Gruppe von Patienten trainiert wurde. Es gibt prinzipielle Bedenken zur Nutzung von KI – neben subjektiver Voreingenommenheit und der Qualität der Daten vor allem in Sachen Privatsphäre. Eine Form von Normierung und Regulierung wird vermutlich in Zukunft erforderlich sein, um die Privatsphäre zu wahren und ethischen Bedenken Rechnung zu tragen.

Die Ausarbeitung ethischer Frameworks

Im Jahr 2015 unterzeichneten mehrere namhafte Persönlichkeiten aus dem Technologiebereich, darunter der inzwischen verstorbene Stephen Hawking, der Chef von Tesla* und SpaceX*, Elon Musk, sowie Apple*-Mitbegründer Steve Wozniak, einen offenen Brief, in dem sie für die Erforschung der gesellschaftlichen Auswirkungen von KI plädierten. Der Brief mit dem Titel Research Priorities for Robust and Beneficial Artificial Intelligence: An Open Letter beschreibt die Vorteile von KI, fordert jedoch zur Vorsicht auf, um die potenziellen Risiken einer solch revolutionären Technologie zu vermeiden.

Während einige große Technologieunternehmen versuchen, ihre eigenen ethischen Frameworks zu entwickeln, gibt es eine Reihe von kollaborativen Initiativen zur Erforschung der Ethik von KI. Intel ist einer der Unterstützer der Initiative Partnership on AI*, deren Fokus auf der Gestaltung der Zukunft der Technologie liegt. Die über 90 Partner von Partnership AI – darunter Amazon*, Google* und Facebook* – möchten Erfolgsmethoden entwickeln und austauschen, für ein besseres Verständnis von KI in der Öffentlichkeit sorgen, eine offene Diskussionsplattform bieten und die Bemühungen zur Entwicklung von KI-Systemen mit einem gesellschaftlichen Nutzen fördern.

Künstliche Intelligenz und ihre Zukunft

Mit seiner Initiative Intel® AI for Social Good widmet sich Intel bereits der Entwicklung von KI-Anwendungsmöglichkeiten, die einen positiven Einfluss auf die Welt haben. Im Rahmen des Projekts unterstützt Intel Organisationen mit Know-how und KI-Technik, um ihnen dabei zu helfen, ihre Arbeit voranzutreiben. Außerdem werden Forschungsarbeiten durchgeführt und Bestrebungen unterstützt, die dazu beitragen, dass KI für alle transparenter, weniger vorurteilsbehaftet und leichter zugänglich wird.

Die Initiative deckt ein breites Spektrum von Projekten ab, darunter die TrailGuard AI*-Kamera. Die Kamera ist in der Lage, in Wildreservate eindringende Wilderer aufzuspüren und Wildhüter in nahezu Echtzeit zu warnen, sodass gefährdete Tiere besser geschützt werden können. „KI kann auf so vielfältige Weise genutzt werden“, sagt Anna Bethke, Head of AI for Social Good bei Intel. „Das übergeordnete Ziel dieser Initiative besteht darin, mit der von uns entwickelten Technik so vielen Menschen wie möglich zu helfen.

Eine Frage der passenden Richtlinie

Anfang des Jahres veröffentlichte Intel ein Whitepaper, in dem das Unternehmen seine Pläne für eine nationale KI-Strategie für die USA darlegte. Dadurch wurden die Bestrebungen von China, Indien, Großbritannien, Frankreich und der Europäischen Union aufgegriffen, die bereits offizielle KI-Pläne angekündigt haben. „Bei KI geht es nicht nur darum, eine gut funktionierende Technologie herzustellen; man braucht auch die passenden Richtlinien“, schreiben Naveen Rao, Corporate VP und General Manager der Intel AI Products Group, und David Hoffman, Associate General Counsel und Global Privacy Officer bei Intel, im gemeinsamen Editorial. „Folgendes erreichen wir durch eine robuste nationale KI-Strategie: Das weitere Potenzial von KI wird erschlossen, Vorbereitungsmaßnahmen für die Auswirkungen von KI werden ergriffen und die USA bleiben weiterhin unter den führenden KI-Nationen.“

Unternehmen, Behörden und anderen Organisationen müssen zusammen an einem Framework für ethische KI arbeiten. Indem wir sicherstellen, dass KI transparent und vorurteilsfrei ist, auf qualitativ hochwertigen Daten basiert und für eine positive Nutzung ausgelegt ist, können wir eine KI-Apokalypse vermeiden und das volle Potenzial dieser transformativen Technologie ausschöpfen.

*Andere Marken oder Produktnamen sind Eigentum der jeweiligen Inhaber.