Bild: Symbobild, Interview mit Fake-Klitschko? Bild: CC0

Ein Phänomen der modernen Medienlandschaft rückte vergangene Woche bei einem Interview zwischen Berlins Bürgermeisterin Franziska Giffey und Kiews Bürgermeister, und Ex-Profiboxer, Vitali Klitschko in den Fokus der medienpolitischen Diskussion.  

Giffey und ihr Team vermuten, dass sie bei dem Videogespräch mit Klitschko auf einen Deep Fake reingefallen sind. Doch was sind Deep Fakes genau? Deepfake, ein Zusammenspiel aus Deep Learning und Fake, ist ein digitales Verfahren in dem, mittels Einsatzes einer künstlichen Intelligenz, mediale (Pseudo-)Identitäten erschaffen werden. Hierbei können per Face-Swap und Stimmenverzerrungen kaum zu erkennende Kopien von realen Personen, die, sofern es genügend Medienmaterial in Erscheinung getreten sind, erstellt und in Echtzeit gesendet werden. Medienfälschungen sind kein neues Phänomen, was Deepfakes besonders macht, ist jedoch der Einsatz des maschinellen Lernens, genauer die künstlich neuronalen Netzwerke, die auch im Deep Learning zum Einsatz kommen. Als Vorbild dient dabei das biologische neuronale Netzwerk, das eine Vernetzung von Neuronen im Nervensystem möglich macht. In der künstlichen Variante geht es jedoch mehr um eine Abstraktion der Informationsverteilung als um die Nachbildung der biologischen neuronalen Netzwerke. Im Deep Learning-Prozess kann eine künstliche Intelligenz anhand Analyse riesiger Datenmengen neu erlernte Inhalte auf Basis vorhandener Informationen immer wieder neu verknüpfen und so einen Lernprozess durchlaufen, in dem Entscheidungen getroffen und von der Maschine hinterfragt werden. Dabei ist das menschliche Eingreifen kaum vonöten. Lediglich die Ausgangsbedingungen müssen im Vorab definiert werden. Den Rest bringt sich die Maschine selber bei. Der Anwendungsbereich des Deep Learning ist überall dort, wo große Datenmengen nach Mustern und Modellen verarbeitet werden können. Ein Beispiel ist dabei die sprachgesteuerte Assistentzsoftware Siri von Apple, die über den Deep Learning-Prozess kontinuierlich ihren Wortschatz erweitert. Weniger harmlos kann das Deep Learning dann auch zum Fälschen von Stimmen und Gesichtern zum Einsatz kommen, dann spricht man von Deep Fakes.  

Wie kann man Deep Fakes enttarnen? Deep Fakes sind bei weitem nicht perfekt, oft sind in der Gesichts- und Stimmenfälschung Lücken und Unstimmigkeiten zu entdecken. Wenn Gesichter unnatürlich aussehen, weil sie zum Beispiel einen leeren Blick, fehlendes Blinzeln und unnatürliche Mimik oder Übergänge zum Haar aufweisen. Auch Qualitätsunterschiede im Bild zum Beispiel zwischen Kleidung, dem Hintergrund und dem Gesicht können auf eine Manipulation hinweisen. Oft lässt sich im Nachhinein durch eine umgekehrte Bildersuche das Ausgangsmaterial, mit dem der Fake erstellt wurde, recherchieren. Unternehmen und Universitäten arbeiten an Software, die Deep Fakes zu erkennen mag, diese muss sich parallel an der besser werdenden Qualität der Fakes anpassen und immer weiter verbessert werden. 

Was zunächst ganz lustig, aber auch irgendwo erschreckend, weil es so nah an die Realität rankommt, in Fake Videos der US-Präsidenten Obama oder Trump rüberkommt, macht auch direkt auf eine große Gefahr aufmerksam. Wir alle haben es mitgemacht und in den vergangenen Jahren der Pandemie vermehrt an Video-Konferenzen teilgenommen. In der Politik war das nicht anders und es ist nicht auszuschließen, dass Deepfakes, besonders wenn weitere Fortschritte in der grafischen Verarbeitung gemacht werden, auch für politische Zwecke, so wie aus Berlin vermutet, benutzt werden oder sogar schon wurden.

  :Artur Airich

 

0 comments

You must be logged in to post a comment.