Warum Ethik für die Zukunft von KI entscheidend ist

Könnte der „Rome Call for Ethics“ vom Papst helfen, künstliche Intelligenz menschlicher zu machen?

Auf einen Blick

  • KI entwickelt sich rasant weiter und wird immer komplexer, weshalb ein ethisches Framework erforderlich ist.

  • Der Papst hat kürzlich dazu aufgerufen, Entscheidungen voranzutreiben, wie Ethik in die künftige KI-Entwicklung integriert werden kann.

  • Ethische KI muss nachvollziehbar und frei von Vorurteilen sein.

BUILT IN - ARTICLE INTRO SECOND COMPONENT

Von der Diagnose lebensbedrohlicher Krankheiten bis hin zur Unterstützung bei der Katastrophenbewältigung – künstliche Intelligenz (KI) wird unsere Gesellschaft auf äußerst positive Weise verändern. Außerdem ermöglichen KI-Algorithmen Unternehmen neue Erkenntnisse zu sammeln, die bisher unerreichbar waren, und bisher haben wir nur einen flüchtigen Einblick in das volle Potenzial der KI erhalten. Da sich die Technologie allerdings weiterhin rasant entwickelt, wird sie zunehmend komplexer, und es besteht ein wachsender Bedarf an einem ethischen Framework.

„Offene Zusammenarbeit wird eine wichtige Rolle in der Zukunft von KI spielen, wenn Technologieunternehmen, Forschungsorganisationen und beteiligte Gemeinschaften zusammenkommen, um herauszufinden, wie KI verantwortungsvoll eingesetzt werden kann.“

Überraschenderweise hat sich kürzlich der Papst in die Diskussion über Ethik in der KI eingebracht. Als er erkannte, dass eine verantwortliche Nutzung von KI Richtlinien erfordert, startete Papst Franziskus kürzlich gemeinsam mit Microsoft* und IBM* den Rome Call for Ethics. Das vom Papst veröffentlichte Dokument verfolgt das Ziel, die Diskussion über Ethik und KI anzukurbeln, und verlangt, dass KI-Technologie transparent, inklusiv, verantwortungsvoll, unparteiisch, zuverlässig und sicher sein soll.

Diese päpstlichen Prinzipien der KI sollen ein Verantwortungsgefühl fördern und Unternehmen dazu ermutigen, bei der menschenbasierten Entwicklung von KI zusammenzuarbeiten. Es mag seltsam erscheinen, dass das Oberhaupt der katholischen Kirche bei der Entscheidung über die Entwicklung zukünftiger Technologien eine Rolle spielt. Die Beteiligung von religiösen und gesellschaftlichen Führungskräften weltweit könnte allerdings dabei helfen, eine der größten Herausforderungen der KI zu bewältigen – Vorurteile. 

Vorurteile bekämpfen

KI-Systeme spiegeln unweigerlich die unbewussten Annahmen der Menschen wider, die sie erstellen. Wenn alle Personen, die sich an der Entwicklung einer KI beteiligen, derselben demografischen Gruppe angehören, sind algorithmische Vorurteile unvermeidbar. Um KI fair und inklusiv zu gestalten, ist es wichtig, dass sie anhand von hochwertigen und unvoreingenommenen Daten geschult wird, und dass Menschen mit unterschiedlichen Hintergründen und verschiedenen Denkweisen an der Datenauswahl beteiligt sind.

Dies hängt mit dem Argument zusammen, dass KI auch nachvollziehbar sein muss, um ethisch vertretbar zu sein. Das bedeutet, dass das Vorgehen einer KI für Menschen leicht erklärbar ist, um Transparenz zu gewährleisten. Es ist wichtig, die Zurechenbarkeit von Entscheidungen zu einem Entscheidungssystem zu verbessern, um das Vertrauen in KI zu fördern und die Akzeptanz zu beschleunigen.

Da die Anwendungsfälle für KI im Alltag zunehmen, steigt auch der Bedarf an Ethik und Transparenz. Wenn KI beispielsweise zur Automatisierung von Entscheidungen bezüglich Einstellungen oder Hypotheken verwendet wird, kann dies negative Auswirkungen haben, wenn der KI-Algorithmus mit unbeabsichtigten Vorurteilen geschult wurde.

Überlegungen zum Datenschutz

Wenn KI von Strafverfolgungsbehörden verwendet wird, gibt es zusätzlich Bedenken hinsichtlich des Datenschutzes. Beispielsweise begannen mehrere Polizeibehörden weltweit mit dem Experimentieren von Gesichtserkennungstechnologie, um Personen zu identifizieren, bei denen ein ausstehender Haftbefehl vorliegt oder die bei einer laufenden Untersuchung hilfreich sein können. Neben Datenschutzproblemen wurden Probleme von Gesichtserkennungssystemen festgestellt, die darauf basierten, dass sie an nicht ausreichend diversen Datensätzen geschult wurden und somit Vorurteile bezüglich ethnischer Zugehörigkeit, Alter und Geschlecht entwickelten.1

Obwohl es Herausforderungen gibt, die für die ethische Verwendung einer KI zu bewältigen sind, wird sie bereits in vielen Unternehmen und Organisationen auf positive Weise eingesetzt. Die Initiative Intel® AI for Social Good nutzt KI, um wichtige soziale Probleme weltweit zu lösen und unterstützt Unternehmen mit KI-Technologien und Fachwissen bei der Beschleunigung ihrer Arbeit.

Zusammenarbeit wird eine wichtige Rolle in der Zukunft von KI spielen, wenn Technologieunternehmen, Forschungsorganisationen und beteiligte Gemeinschaften zusammenkommen, um herauszufinden, wie KI verantwortungsvoll eingesetzt werden kann. Die Forderung nach Vorschriften und Standardisierung von KI hat bereits zu vielen Diskussionen über ethische Richtlinien geführt, aber bisher sind die Richtlinien eher vage. Eine zentrale Regelung von KI ist aufgrund der breiten Palette an KI-gestützten Anwendungen in verschiedenen Branchen und Kulturen unrealistisch. Dennoch ist ein ethisches Framework zwingend notwendig.

*Andere Marken oder Produktnamen sind Eigentum der jeweiligen Inhaber.