Erinnern Sie sich an Zurück in die Zukunft*? Das Auto, die Musik und im Mittelpunkt steht das ikonische Duo bestehend aus Robert Downey Jr. und Tom Holland als Doc Brown und Marty McFly. Natürlich können Sie sich nicht an den letzten Teil erinnern – schließlich war Tom Holland noch nicht einmal geboren, als Zurück in die Zukunft im Jahr 1985 erschien.
Allerdings können Sie diese Art von alternativer Besetzung in sehr vielen neuartigen „Deepfake“-Videos miterleben, die im Laufe der letzten Jahre im Internet aufgetaucht sind. Durch den Einsatz von Deepfaking-Technik können diese Videos Schauspieler mit verblüffender Genauigkeit in Filmen erscheinen lassen, in denen sie nie mitgespielt haben, oder Prominente in Interviews, die nie stattgefunden haben. Die Sorge um die Auswirkungen von Deepfakes nimmt stetig zu. Inwieweit ist diese Angst berechtigt? Und was können wir tun, um dieses Problem anzugehen?
Was sind Deepfakes und sollten wir besorgt sein?
Deepfakes basieren auf einer Technik namens „Generative Adversarial Networks“ (GANs). Ein Adversarial Network besteht aus zwei neuronalen Netzwerken – eines davon wird als Generator und das andere als Discriminator bezeichnet.
Zunächst verwendet der Generator als Eingangsdatei ein Foto einer Person und versucht dann, ein zweites Bild zu erzeugen, das dem bereitgestellten Foto ähnlich ist, sich aber von diesem unterscheidet. Dieses Foto wird dann an das Discriminator-Netzwerk weitergeleitet, das versucht zu erkennen, ob die bereitgestellte Eingangsdatei echt oder gefälscht ist – daher der Name „Adversarial“ (auf Gegensätzen beruhend): jedes Netzwerk versucht, das andere zu täuschen.
Je mehr die beiden Netzwerke trainieren, desto besser gelingt es ihnen, gefälschte Bilder zu erzeugen, die wie echte aussehen. Irgendwann entsteht dann ein Bild, das (zumindest aus Sicht des Discriminator-Netzwerks) nicht mehr von den tatsächlichen Fotos dieser Person zu unterscheiden ist. Es entsteht ein Deepfake. So entsteht beispielsweise ein Video, in dem Facebook-CEO Mark Zuckerberg betrügerische Dialysebehandlungen verkauft oder auf lustige Weise damit droht, die Weltherrschaft an sich zu reißen.
In den Augen einiger Kritiker sind solche Videos jedoch ernst zu nehmen. Die Fähigkeit, fast vollständig überzeugende, lebensechte Darstellungen zu erzeugen, könnte, so sagen sie, erschreckende Auswirkungen auf viele Lebensbereiche haben.
Durch Deepfake-Videos könnten Politikern belastende Worte in den Mund gelegt werden, oder es könnte Politikern die Möglichkeit gegeben werden, ihre tatsächlichen Worte oder Handlungen mit der Begründung abzutun, sie seien ein Deepfake. Darüber hinaus besteht großes Betrugspotenzial. Wenn Menschen sich schon von einer Phishing-Mail überzeugen lassen, in der sich jemand als ihre Bank ausgibt und um eine Überweisung bittet, wie überzeugend würde dann erst ein Videoanruf von einem Kollegen oder Verwandten auf sie wirken? Das EU-Polizeiamt Europol empfahl in einem Bericht, dass die Strafverfolgungsbehörden „erhebliche Investitionen“ in die Entwicklung von Technik tätigen sollten, die zur Erkennung des Missbrauchs von Deepfakes beitragen kann.
Gleiches gilt für die finstere Unterwelt der Internetpornografie, in der Prominente und andere Personen ohne deren Zustimmung digital in explizites Material eingefügt werden können. Mit Stand vom September 2019 wurden laut einem Bericht von DeepTrace fast 96 % der Deepfakes im pornografischen Umfeld angewendet.
Andere dagegen sprechen davon, dass die Bedrohung weniger groß ist, als sie erscheint. Fotomanipulationen gibt es schon seit 1860. So wurde die aus politischen Gründen vorgenommene Entfernung von liquidierten politischen Gegnern aus offiziellen Fotos ausgiebig in der Sowjetunion unter Joseph Stalin eingesetzt. Noch während des Wahlkampfs um die Präsidentschaft 2004 schaffte es ein manipuliertes Foto von John Kerry in die New York Times*. Und die Manipulation von Printmedien ist schon so lange möglich, wie es, nun ja, Printmedien gibt. Daher ist es nach Ansicht der Skeptiker nur eine weitere Technik, mit der wir letztendlich zurechtkommen müssen.
So können Fälschungen erkannt werden
Trotz dieser Zusicherungen ist es verständlich, dass sich viele sicherer fühlen würden, wenn es absolut eindeutige, technisch gestützte Verfahren gäbe, einen Deepfake von einem Original zu unterscheiden. Die Forschung in diesem Bereich wird in der Tat fortgesetzt. Was mithilfe von KI geschaffen werden kann, kann mit ihrer Hilfe auch rückgängig gemacht werden.
So ist das KI-Unternehmen Zeff nur eines unter vielen Unternehmen, die versuchen, KI-Erkennungssysteme stets einen Schritt vor dem aktuellen Stand der Technik zu halten. Anfänglich waren unnatürliche Blinkmuster eines der typischen Anzeichen eines Deepfakes. Nachdem die Blinkmuster jedoch identifiziert werden konnten, wurden entsprechende Korrekturen in die Deepfake-Lösungen eingearbeitet – sie blinken nun wie bei echten Menschen.
Als Reaktion darauf begann Zeff mit dem Einsatz von KI, um den Blutfluss unter der Haut zu überprüfen – was mit Deepfakes immer noch nicht richtig nachgeahmt werden kann. Im Intel on AI Podcast äußert sich Ben Taylor, Chief Data Officer bei Zeff, jedoch pragmatisch über die langfristige Nachhaltigkeit dieser Lösung und räumt ein, dass die Suche nach Lösungen auf diesem Gebiet einem Katz-und-Maus-Spiel gleichkommt. „Die Regeln dieses Spiels werden stets neu geschrieben. Sobald wir also eine gute Idee haben, kann diese von jemand anderem genutzt werden, um Deepfakes zu verbessern.“
Eine andere Lösung besteht darin, Fotos mit digitalen Ebenen zu versehen, die sie für die Erzeugung von Deepfakes unbrauchbar machen und so den Deepfakes ihren „Treibstoff“ entziehen. Unabhängige Forscher haben beispielsweise eine algorithmische Schicht entwickelt, die in ein Bild hineinkodiert werden kann. Der Code verzerrt dieses Bild bis zur Unkenntlichkeit, wenn er erkennt, dass jemand versucht, es für einen Deepfake zu verwenden.
Ob die Gefahr, die von Deepfakes ausgeht, zunehmen wird, ist noch nicht abzusehen. Entweder lernen wir, mit ihnen zu leben, oder die Technik wird die Erkennung dieser erleichtern. Doch die vielleicht sicherste Einstellung ist die von Facebook* Chief Technology Officer Mike Schroepfer: „Ich bin lieber auf eine Menge schlechter Dinge vorbereitet, die nie passieren, als umgekehrt.“