Fake news war gestern

Beyond Journalism - Deepfakes als neue Herausforderung für die Mediendemokratie

Einmal mehr hat Pornografie sich als ein technologischer Innovationstreiber erwiesen. So hat im Herbst 2017 ein Nutzer mit dem Pseudonym ‘Deepfakes’ auf der Internetplattform Reddit mehrere Videos veröffentlicht, in denen er Gesichter von bekannten Schauspielerinnen virtuell auf die Körper von Pornodarstellerinnen montiert hatte.

Als Deepfakes bezeichnet man inzwischen das gesamte Phänomen manipulierter Bewegtbilder, die weit über den Unterhaltungsbereich hinaus gehen. Das Schachtelwort setzt sich zusammen aus ‘deep learning’ und ‘fake news’. In der Tat ist die Weiterentwicklung der künstlichen Intelligenz und des maschinellen Lernens, insbesondere im Bereich der automatisierten Sprach- und Gesichtserkennung, ausschlaggebend für die Herstellung von real erscheinenden Fälschungen.

Das Prinzip basiert darauf, dass ein Algorithmus mit Bildern der Zielperson gefüttert wird, so dass er die Morphologie und Mimik dieser Person erlernt, um dann die neu generierten Bilder erfolgreich in den Originalfilm einsetzen zu können.

Faken für Laien

Brauchte es 2017 hierfür noch fundierte Programmierkenntnisse, existiert seit Anfang 2018 die kostenlose Software FakeApp, die es auch Nutzern ohne großes technisches Vorwissen erlaubt, Videos verhältnismäßig leicht zu manipulieren. FakeApp basiert auf Googles TensorFlow, einer intelligenten Open-Source-Technologie. Die Millionen Bilder auf Google Photos und in den sozialen Netzwerken, auf welchen die Nutzer sich und ihre Freunde markieren, tragen zur ständigen Verbesserung dieser Algorithmen bei. In vereinfachter Form steckt die Technologie auch bereits in Handy-Apps wie Face Swap Live oder Snapchat.

Das bekannteste mit FakeApp produzierte Video wurde im April 2018 von Obama-Imitator Jordan Peele veröffentlicht. Man sieht darin eine Ansprache des vorigen US-Präsidenten, in der er sich abfällig über Donald Trump äußert, bevor er scheinbar folgendes sagt: “This is a dangerous time. It may sound basic, but how we move forward in the age of information is going to be the difference between whether we survive or whether we become some kind of fucked-up dystopia. Moving forward, we need to be more vigilant with what we trust from the internet.“ Nach gut der Hälfte des Videos wird es als Fälschung entlarvt – ein Stimmenimitator wird in die rechte Bildhälfte eingeblendet, während Obamas Lippenbewegungen synchron zu Peeles Aussagen weiterlaufen.

Im Mai 2018 gab die flämische sozialistische Partei sp.a. ein Video in Auftrag, auf dem angeblich Donald Trump mit den folgenden Worten Belgien auffordert, vom Pariser Klimaabkommen zurückzutreten:

„As you know, I had the balls to withdraw from the Paris climate agreement. And so should you. Because what you guys are doing right now in Belgium is actually worse. You agreed, but you are not taking any measures. Only blablabla. Bingbangboom“, gefolgt vom Schlusssatz: „We all know climate change is fake, just like this video.“

Was als PR-Maßnahme zum Anstoß einer gesellschaftlichen Debatte über Klimapolitik gedacht war, trat eine Debatte über die Glaubwürdigkeit politischer Instanzen los, weil viele Nutzer trotz hier bewusst nicht synchronisierter Lippenbewegungen den satirischen Inhalt und den abschließenden Hinweis auf die Fälschung nicht wahrgenommen haben.

„Der Mensch selbst aber hat einen unbesiegbaren Hang, sich täuschen zu lassen, und ist wie bezaubert vor Glück, wenn der Rhapsode ihm epische Märchen wie wahr erzählt oder der Schauspieler im Schauspiel den König noch königlicher agiert, als ihn die Wirklichkeit zeigt“, schrieb Nietzsche in Wahrheit und Lüge – eine Feststellung, die heute nichts an Aktualität eingebüßt hat.

Ende der Macht des Faktischen?

Doch mit Bildmanipulation nicht genug – Adobe arbeitet zurzeit an Voco, einer Art Photoshop für Audiodateien, die später auch in die Creative Cloud aufgenommen werden soll und damit weite Verbreitung erfahren wird. Diese Software kann mit Stimmaufnahmen gespeist werden, und soll die Aussprache einer bestimmten Person erlernen, um ihre Stimme später realitätsgetreu nachahmen und so zum Beispiel ein gefälschtes Video mit einer passenden Tonspur unterlegen zu können.

Die Debatte um die sogenannten „Fake news“ erscheint plötzlich veraltet. ‚Alternative‘ Fakten können mittels Faktencheck noch widerlegt werden, doch was ist, wenn auf einmal eine alternative Realität entsteht? Was vermag man einer Technologie entgegenzusetzen, die nicht nur jeden alles sagen und tun lassen kann, sondern, die jeder auch noch permanent in der Hosentasche mit sich herumträgt?

Der MIT-Computerwissenschaftler Aviv Ovadya warnt bereits vor einer durch Deepfakes gespeisten drohenden ‘Infokalypse’, die sich durch eine ‘Realitätsapathie’ auszeichnen wird. Seine These: Menschen, die in ständigem Kontakt mit Desinformation sind, verlieren den Glauben an jegliche Information.

Man sollte deshalb Technik mit Technik bekämpfen, sagen die einen. So versucht die Forschungsagentur DARPA des US-Verteidigungsministeriums in ihrem ‘Media Forensics’ – Programm, Instrumente zu entwickeln, die manipulierte Fotos und Videos erkennen sollen. Das Problem hierbei: Jede Möglichkeit, die sich findet, um einen Fake zu entlarven, wird umgehend in die KI-Technologie eingespeist, so dass ein Wettlauf zwischen den Entwickler*innen von Deepfake-Technologie und jenen, die die Technologie kontrollieren wollen, entsteht.

Andere Expert*innen setzen dagegen eher auf kryptografische Anwendungen wie die Blockchain, oder auf Lokaljournalismus mit Reporter*innen, die direkt vor Ort berichten und somit nicht auf fremdes Bildmaterial angewiesen sind. Wenn der Reporter selbst jedoch zu einem Deepfake wird – so z.B. bei der chinesischen Presseagentur Xinhua, die im November 2018 auf der World Internet Conference zwei Avatare, virtuelle Nachbildungen reeller Nachrichtensprecher, präsentiert hat, die unermüdlich, pausenlos, multilingual, im Einsatz sein können – wie soll dann noch Authentizität und Glaubwürdigkeit vermittelt werden?

Als partizipative Debattenzeitschrift und Diskussionsplattform, treten wir für den freien Zugang zu unseren Veröffentlichungen ein, sind jedoch als Verein ohne Gewinnzweck (ASBL) auf Unterstützung angewiesen.

Sie können uns auf direktem Wege eine kleine Spende über folgenden Code zukommen lassen, für größere Unterstützung, schauen Sie doch gerne in der passenden Rubrik vorbei. Wir freuen uns über Ihre Spende!

Spenden QR Code