Wie ein irischer Teenager Deepfakes bekämpft

Täuschend echt gefälschte Videos sind weit verbreitet und werden gezielt zur politischen Desinformation eingesetzt. Greg Tarr, 18, hat nun eine Software entwickelt, die die Fakes entlarven kann. Doch es gibt mächtige Gegenspieler.

Stolzer Sieger: Der 18-jährige Greg Tarr aus dem irischen Cork mit der Trophäe des Nachwuchsforscher-Preises, den er gerade gewonnen hat.

Foto: Chris Bellew/Fennell Photography

Das Problem: Gefälschte Videos, die nicht als solche erkannt werden, kursieren millionfach im Internet; ihre Anzahl verdoppelt sich etwa alle sechs Monate. Sie befeuern Verschwörungstheorien und politischen Extremismus, dienen aber auch zur Diffamierung von Prominenten und Privatpersonen.
Die Lösung: Künstliche Intelligenz, die klüger ist als die Fakes.

Eines der Videos, die vor den US-Wahlen vielfach geteilt wurden, zeigte Joe Biden, wie er mitten in einem Fernsehinterview vor laufender Kamera einschläft; in einem anderen nannte Barack Obama seinen Nachfolger Trump »einen totalen Trottel«, und Mark Zuckerberg gab damit an, über Milliarden von gestohlenen Daten zu verfügen – alles glatte Fälschungen, in denen die Köpfe der Promis digital auf andere Akteure montiert wurden. Sogenannte »Deepfakes«, also computergenerierte und täuschend echte Fälschungen, sind für den normalen Zuschauer kaum zu erkennen. Sogar Profis tun sich schwer damit. Mit nur 17 Jahren hat der irische Schüler Greg Tarr eine innovative Software entwickelt, die Deepfakes mit Hilfe künstlicher Intelligenz schneller und billiger entlarvt, als es die existierende Technik schafft. Damit gewann der inzwischen 18-Jährige gerade einen der wichtigsten europäischen Jugendforschungs-Preise, die 57. BT Young Scientist & Technology Exhibition.

SZ-Magazin: Warum befasst du Dich ausgerechnet mit Deepfakes?
Greg Tarr: Ich beschäftige mich seit vier Jahren mit Künstlicher Intelligenz. Vor einem Jahr schrieb Facebook in Partnerschaft mit einigen anderen großen Firmen einen Deepfake Detection Challenge aus, also einen Wettbewerb für die besten Methoden, Deepfakes zu entdecken. Weil er mit einer Million Dollar Preisgeld dotiert war, hat mich das sehr interessiert, aber damals war ich noch nicht soweit. Ich sah mir die fünf besten Ideen an und fand, dass sie mit bis zu 80 Prozent Treffsicherheit zwar recht akkurat waren, aber unglaublich langsam. Man kann heute mit einfacher Technologie ein Video durch eine Software laufen lassen und damit innerhalb von Minuten ein Deepfake produzieren, aber auf der Entlarvungs-Seite gibt es nichts vergleichbar Schnelles. Ich habe also die besten Wettbewerbskandidaten genommen, nach Schwachstellen untersucht und darauf aufbauend eine schnellere und effizientere Software geschrieben. Meine Software ist zehnmal schneller.

Meistgelesen diese Woche:

Du hast zwar nicht am millionenschweren Facebook-Challenge teilgenommen, aber mit deiner Software einen der wichtigsten europäischen Preise für Nachwuchsforscher gewonnen. Dort hieß es, deine Entwicklung sei ein »ausgeklügeltes KI-Softwareprogramm, das effizient und akkurat Deepfakes erkennt«. Kannst du für Laien verständlich erklären, wie das funktioniert?
Deepfakes werden mit KI generiert, also ist es logisch, auch zur Erkennung KI einzusetzen. Man löscht sozusagen Feuer mit Feuer. Man verarbeitet enorme Datenmengen, im Deepfake Detection Challenge waren es 1,2 Terrabyte, und damit lernt die Künstliche Intelligenz, zwischen gefälschtem und authentischem Material zu unterscheiden.

Was sind die geschicktesten Deepfakes, die dir untergekommen sind?
Ich habe viele politische Skandale gesehen, etwa das gefakte Video von »Sleepy Joe Biden« oder der Queen.

Während die echte Queen letzten Dezember ihre traditionelle Weihnachtsansprache hielt, lästerte gleichzeitig eine digital gefälschte Queen über Meghan Markle und andere Familienmitglieder.
Ich halte die Deepfakes von Prominenten aber nicht wirklich für das größte Problem, denn die können sich wehren. Die größte Bedrohung liegt darin, wenn Privatmenschen betroffen sind, denn inzwischen ist diese Technologie für jeden verfügbar. Nach dem Wettbewerb wendeten sich mehrere Menschen, deren Gesichter in Deepfake-Videos zu sehen sind, hilfesuchend an mich, weil sie nicht wussten, was sie tun sollten.

»Man braucht keine technischen Fähigkeiten mehr, um ein manipuliertes Video herzustellen. Man folgt einfach einer Online-Anleitung, das genügt«

Amerika hat gerade einen Wahlkampf gesehen, der von extremer Desinformation geprägt war. Hältst du das nicht für ein großes Problem?
Natürlich ist bei Wahlen die Informationssicherheit essenziell. Aber das größte Problem ist inzwischen, dass Deepfakes so einfach zu verbreiten sind. Das Ausmaß macht mir Sorgen. Es ist erstaunlich, wie viele Menschen nicht wissen, wie verbreitet Deepfakes jetzt schon sind. Man braucht keine technischen Fähigkeiten mehr, um ein manipuliertes Video herzustellen. Man folgt einfach einer Online-Anleitung, das genügt. Potenziell inkriminierende Beweise in Rechtsstreitigkeiten, Kindesmissbrauch, Rachevideos – jeder, der etwas Schlechtes im Sinn hat, kann das recht einfach tun. Ich finde, die Last, ihre Daten zu sichern, sollte man nicht den Konsumenten aufbürden. Dazu sind Fälschungen mittlerweise zu leicht herzustellen. Ich muss ja auch nicht lernen, mit einer Waffe zu schießen, um mich sicher zu fühlen, sondern dafür verlasse ich mich auf die Polizei.

Weil Deepfakes so leicht herzustellen sind: Ist das Rennen dagegen überhaupt noch zu gewinnen?
Was ich als Lösung vorschlage, ist, dass die Videos durch die Erkennungssoftware laufen, bevor sie überhaupt hochgeladen werden.

Zeigen die großen Tech-Firmen daran Interesse?
Nein, tun sie nicht. Sie wollen nicht für die Inhalte verantwortlich sein. Daran verdienen sie ja nichts. Je billiger die Detection Software wird, desto kosteneffektiver wird es aber für die Tech-Firmen.

Ich habe mich intensiv mit der Verbreitung von Kinderpornografie beschäftigt, und da ist die sinnvollste Lösung letztendlich die gleiche wie bei Deepfakes: Statt jedem einzelnen Video hinterherzujagen, das tausend- oder millionenfach geteilt wird, wäre es besser, das Problem bei der Wurzel zu packen und schon das Hochladen zu verhindern. Es gibt aber nur wenige der großen Plattformen, die dafür Ressourcen bereitstellen.
Es ist machbar. Man sollte einen guten Grund haben, ein manipuliertes Video hochzuladen, sonst sollte die Verbreitung nicht erlaubt sein. Kinofilme sind ein positives Beispiel, da kann man mit der Technologie tolle Effekte erzielen, etwa den Hauptdarsteller langsam jünger werden zu lassen. Sonst finde ich: Die Verbreitung von manipuliertem Material sollte bestraft werden. Wir haben kurzfristige Lösungen wie diese Software-Programme, aber letztendlich ist das Säen von Misstrauen in der Gesellschaft das Schlimmste, und als Gemeinschaft können wir das auch angehen. Die Leute sollen für die Inhalte, die sie verbreiten, zur Verantwortung gezogen werden. Es ist sehr leicht, mit ein paar Klicks gefälschte Informationen zu teilen und damit enormen Schaden anzurichten.

»Sehr bald, in vielleicht vier bis zehn Jahren, werden wir Deepfakes haben, die gar nicht mehr entlarvt werden können, auch nicht mit KI«

Funktioniert deine Methode nur für Videos oder auch für Audio-Aufnahmen und Fotos? Es gab zum Beispiel den Fall eines Managers, der 200.000 Pfund an einen Betrüger überwies, weil er sich am Telefon von einer manipulierten Stimme täuschen ließ, die wie sein Chef klang.
Meine Software entlarvt Fotos und Videos, aber keine Audio-Dateien. Dafür habe ich das Programm nicht gebaut, es wäre aber kein Problem, sowas zu entwickeln. Technisch sind wir längst in der Lage, Deepfakes zu erkennen. Letztendlich brauchen wir eine neue Rechtsprechung und den Willen, das Problem zu lösen. Sehr bald, in vielleicht vier bis zehn Jahren, werden wir Deepfakes haben, die gar nicht mehr entlarvt werden können, auch nicht mit KI. Technologie kann wie atomare Energie sein – wenn sie erst einmal in der Welt ist und Schaden angerichtet hat, kann man sie nicht einfach wieder zurückholen. Deshalb muss man an der Wurzel ansetzen.

Du sagtest anfangs so locker, dass du dich seit vier Jahren mit Künstlicher Intelligenz beschäftigst. Wie kamst du so früh schon dazu?
Ich bin vor wenigen Tagen 18 geworden. Aber ich code, seit ich sieben oder acht bin. Meine Eltern haben mir einen Computer geschenkt, als ich fünf war. Meine Mutter ist Autorin, mein Vater Programmierer, aber wir arbeiten auf verschiedenen Gebieten und beherrschen unterschiedliche Programmiersprachen. Das Coden habe ich mir komplett selbst beigebracht. Im Augenblick bringe ich meinem Vater Python (Anm. d. Red.: eine Programmier-Sprache) bei, nicht umgekehrt. Ich habe mit dem Coden viele Preise gewonnen, deshalb bin ich dabei geblieben.

Du gehst im irischen Cork zur Schule. Weißt du schon, was du mit deiner Software machen willst, also ob du sie zum Beispiel bis zur Marktreife entwickeln willst?
Ich mache gerade ein Jahr Pause von der Schule, einerseits wegen Covid, andererseits um mich ganz dem Coden zu widmen. Es gibt viel Interesse und ich will auf jeden Fall eine meiner Ideen kommerzialisieren.

Wie können Menschen, die keine Tech-Genies sind, sich nicht von Deepfakes täuschen lassen?
Bezieht Informationen nur aus vertrauenswürdigen Quellen! Ich persönlich glaube nicht, dass ich mich von Deepfakes täuschen lasse. Bildung ist der Schlüssel. Wenn ich mir ein Video etwa einfach auf YouTube reinziehe, das nicht aus einer glaubwürdigen Quelle stammt, neige ich eher dazu, es für ein Deepfake zu halten. Niemand sollte seine Überzeugungen oder gar sein Leben an YouTube-Videos ausrichten.

Leuchtet ein, aber Millionen Verschwörungsgläubige tun genau das. Sie finden ihre »Beweise« im Internet und glauben, was sie dort sehen, auch wenn es gefälscht ist.
Das Problem wird verschwinden. In 100 Jahren werden wir keine Deepfakes mehr haben.

Wie kommst du zu dieser Überzeugung? Ich glaube, Deepfakes werden in den nächsten Jahren erst so richtig explodieren.
Sie werden zunächst explodieren, aber wie bei so vielen Dingen wird es eine Glockenkurve geben. Weil es ein von Menschen geschaffenes Problem ist, wird es auch wieder verschwinden. Meine Vision ist, dass Menschen lernen werden, was glaubwürdige Quellen sind. Wir brauchen keine Schafe, sondern Menschen mit einer gesunden Skepsis, die wissen, dass das, was sie im Internet finden, vielleicht nicht der Realität entspricht.