Netzpolitik
Ludwig und der falsche Klitschko: Die Deepfake-Gefahr droht real zu werden
Die Stadtoberhäupter von Wien, Berlin und Madrid telefonierten mit einer Fake-Version des Kiewer Stadtoberhaupts. Es könnte sich um einen Deepfake gehandelt haben, die Technologie wird immer besser und zugänglicher
Georg Pichler
25. Juni 2022, 17:00
,
Wurde anscheinend als Deepfake-Vorlage missbraucht: Kiews Bürgermeister Vitali Klitschko.
Foto: Imago/Kyodo News - Bearbeitung: STANDARD
"Ich brauche keinen Dolmetscher", ließ Vitali Klitschko, Ex-Profiboxer und Bürgermeister von Kiew, ausrichten. Anlass waren Videotelefonate in seinem Namen mit europäischen Bürgermeistern. Drei Fälle aus den vergangenen Tagen sind mittlerweile bekannt: Die Berliner Oberbürgermeisterin Franziska Giffey, ihr Pendant im Wiener Rathaus, Michael Ludwig und der Madrider Stadtchef, Luis Martinez-Almeida.
Wohnen
Große Esstische brauchen Raum zum Wirken
So wirken große Tafeln im Zuhause stilvoll und passend.
Werbung
Über den Inhalt der Konversationen ist nicht viel bekannt. Aufgrund eigenartiger Vorschläge und Fragen sei man aber in Berlin misstrauisch geworden und habe den Call vorzeitig abgebrochen. Eine offizielle Bestätigung steht noch aus, jedoch vermutet man stark, dass es sich um einen Deepfake handelte und hat Ermittlungen aufgenommen. In der österreichischen Hauptstadt war offenbar kein Verdacht geschöpft worden, das Gespräch soll normal zu Ende gegangen sein. Ludwig veröffentlichte dazu auch mehrere Twitterbotschaften, die erst vor wenigen Stunden gelöscht wurden.
Dass es auch Gespräche von weiteren Politikern mit dem Fake-Klitschko oder zumindest Versuche, solche zu initiieren, gab, ist nicht auszuschließen. Klar ist aber: Giffey, Martinez-Almeida und Ludwig werden nicht die Letzten sein, die damit herein gelegt werden sollen. Lange war vor den möglichen Gefahren durch Deepfakes gewarnt worden, nun manifestieren sich diese auch in der politischen Realität.
Nicht der erste Deepfake-Alarm
Doch was sind eigentlich Deepfakes? Das Wort setzt sich zusammen aus den Begriffen "Deep Learning" und "Fakes". Knapp erklärt versteht man darunter die durch Künstliche Intelligenz gestützten Manipulation von Bild-, Ton- und Videodateien. Was vor einigen Jahren nur in überschaubarer Qualität für Fotos in niedriger Auflösung möglich war, geht heute – wie an den aktuellen Beispielen ersichtlich ist – auch in Echtzeit für Videostreams. Ein Werkzeug, das auch unzweifelhaft hohes künstlerisches Potenzial mitbringt – wird zur Waffe.
Ob die Anrufe nach Wien und Berlin die ersten waren, bei denen hochrangige Politiker erfolgreich zum Ziel wurden, lässt sich nicht zweifelsfrei sagen. Die Chancen stehen aber gut, dass es sich um eine Premiere handelt.
Schon im April 2021 gab es in Europa Deepfake-Alarm. Damals nahmen Abgeordnete aus Großbritannien, Lettland, Estland und Litauen an Videochats mit dem russischen Oppositionellen und Navalny-Verbündeten Leonid Volkov teil. Nur stellte sich heraus, dass am anderen Ende der Leitung gar nicht Volkov saß, sondern ein Betrüger.
Die Verantwortlichen, das als "Vovan und Lexus" bekannte russische Duo aus Aleksej Stoljarov und Wladimir Kuznetsov erklärten allerdings, dass kein Deepfake im Einsatz war, sondern lediglich ein gut hergerichteter Imitator. Die beiden spezialisieren sich auf das Hereinlegen westlicher Politiker und es war nicht ihr erster Coup. 2018 telefonierten sie im Namen des armenischen Premiers Nikol Paschinjan 18 Minuten lang mit dem damaligen britischen Außenminister und heutigen Premier Boris Johnson. Erst Anfang Juni wurden die beiden vom russischen Außenministerium geehrt.
Gerne werden mithilfe von Deepfake-Software Personen in Filme eingebaut, in denen sie nie mitgespielt haben.
Ctrl Shift Face
Kunst und Manipulation
Als Deepfakes als Folge der rasanten Fortschritte bei der Entwicklung von KI und massenhaften Datenanalyse als relativ einfach zugängliche Technologie ins Rampenlicht kamen, war die Begeisterung zunächst groß. Damit ließen sich etwa Gesichter von Schauspielern vertauschen oder in andere Filme transportieren.
Bis heute erfreut sich diese Nutzung als Videogenre großer Beliebtheit. Und manche verdienen überhaupt gleich mit einer "geklauten" Persönlichkeit online ihr Geld. Das bekannteste Projekt dürfte wohl "Deep Tom Cruise" sein, bei dem der bekannte US-Schauspieler als Vorlage für die (offensichtlichen) Fälschungen dient.
Ein Video des "Deepfake Tom Cruise"
Doch auch die "dunkle Seite" der Technologie zeigte sich schnell in einem Phänomen namens "Deepfake Porn". Hier werden die Gesichter von Personen in Fotos und Videos expliziter Natur eingefügt. Das Weiterverbreiten solcher Manipulationen wird mitunter für Cybermobbing eingesetzt und kann auch, zumal diese technisch immer ausgereifter werden, soziale Konsequenzen durch ihr Umfeld für die Betroffenen nach sich ziehen. Betroffen sind hauptsächlich Frauen.
Immer mächtiger und zugänglicher
Der Aufwand zur Erzeugung von Deepfakes sinkt. Zu Beginn setzte die Verwendung der Technologie oft noch Programmierkenntnisse, zumindest aber technisches Wissen voraus. Für Bildmanipulationen, als auch einfache Videos gibt es heute aber bereits Programme und Onlinedienste, die im Prinzip ohne Vorkenntnisse verwendet werden können. Ein Dienst bietet etwa den Austausch eines Kopfes in einem vom Nutzer hochgeladenen Video durch einen anderen an. Dazu benötigt es jeweils nur das Hochladen von Clips, die bestimmte Vorgaben erfüllen sowie optional zur Verbesserung des Ergebnisses auch die Bereitstellung von Fotos.
Ein Online-Deepfake-Service für einfache Videos.
Foto: Screenshot
Schwieriger wird es, wenn es Perspektivenwechsel, teilweise Gesichtsverdeckungen und andere Herausforderungen gibt. Dann ist mitunter noch Handarbeit gefragt, aber auch in diesem Punkt wird die Technologie laufend besser.
Das Herstellen eines Deepfakes für den Liveeinsatz ist nochmals eine größere Herausforderung, deren Umsetzung für Laien noch schwierig ist. Software dafür ist allerdings öffentlich verfügbar, sowohl in Form kommerzieller Services, als auch Open-Source-Software. Hier lernt das System über das Einspeisen von Bild- und Videodaten die Nachahmung eines Gesichts und seiner Sprechbewegungen über eine Art "digitale Maske" (Face Model), die dann Kopf oder Gesicht der eigentlichen Person überlagern kann.
Dieses "Anlernen" passiert freilich auch bei Deepfakes, die nicht für den Liveeinsatz gedacht sind. Hier wird allerdings ein Teil der notwendigen Rechenressourcen vorab aufgewendet, um dann nahezu in Echtzeit ein Ergebnis erzielen zu können. Wie limitiert das Ergebnis ist – etwa was die perspektivische Abbildung angeht – hängt auch von der Menge und Qualität der Trainingsdaten ab. Die Überlagerung selbst wird über die Erkennung von Form, Merkmalen und Perspektive des Gesichts realisiert, so wie es auch bei virtuellen Masken von Apps wie Snapchat oder bei Apples Animojis funktioniert.
Eine zweite Variante ist, dass das Modell nicht über eine laufende Videoaufnahme gelegt wird, sondern genutzt wird, um ein Foto der Person, deren Identität nachgeahmt wird, zu animieren. Dieses Verfahren nennt sich "Motion Retargeting".
Eine Vorstellung von Deepfake-Technologien durch den Computergrafik- und KI-Experten Károly Zsolnai-Fehér von der TU Wien.
Two Minute Papers
Österreich setzt auf "Nationalen Aktionsplan"
Die österreichische Politik ist auf die Bedrohungslage mittlerweile aufmerksam geworden. In Österreich wurde vor einem Monat ein vom Bundeskanzleramt, Außenministerium, Justizministerium, Innenministerium und Verteidigungsministerium erarbeiteter "Nationaler Aktionsplan" (PDF) dazu veröffentlicht.
In diesem werden Deepfakes auch als "erhebliche Bedrohung für die Integrität einer Demokratie" bezeichnet. Als Gegenmaßnahmen vorgesehen sind eigene Krisenmanagement-Mechanismen für den Fall, dass ein Deepfake politische Verwerfungen auslöst. Dazu will man auch die die Bevölkerung, Bildungseinrichtungen und Unternehmen für die Gefahrenlage sensibilisieren und Lösungen nach dem Public-Private-Partnership-Modell anstreben.
Eingebunden werden sollen zudem Medien, NGOs und Betreiber sozialer Netzwerke, hier ist auch explizit von Fact-Checking-Mechanismen die Rede. Man möchte auch auf internationaler Ebene mit Institutionen und Behörden kooperieren. Weiters ist auch die Beschaffung bzw. Entwicklung "eines Softwaretools zur Erkennung von Deepfakes" vorgesehen. (Georg Pichler, 25.6.22)