Fakes erkennen

Deep Fakes: Warum wir unseren Augen nicht mehr trauen können

Sieht echt aus, ist es aber nicht: Mit Hilfe von Künstlicher Intelligenz (KI) lassen sich Fotos, Videos oder Audios heute nicht nur manipulieren, sondern sogar komplett künstlich herstellen. Echt oder nicht – das lässt sich oft kaum noch sagen. Was ist heute mit Deep Fakes alles möglich – und wo liegen die Risiken?

Retusche und  Photopshop waren gestern

Fotos retuschieren, hier einen Pickel entfernen, da eine Falte glätten, damit die abgebildeten Personen  optisch glänzen können. : Das haben Fotografen schon immer gemacht. Auch wurden Fotos schon immer manipuliert, etwa um unliebsame Personen aus einem Foto zu entfernen – oder einen Platz besonders friedlich aussehen zu lassen, obwohl jede Menge Menschen da waren.

Doch was früher mit viel Aufwand verbunden war – Schere, Klebstoff und viel Erfahrung –, das ist spätestens seit Photoshop zu einer vergleichsweise einfachen Sache geworden. Per Mausklick lassen sich Fotos nach allen Regeln der Kunst nachbearbeiten. Foto-Apps bieten heute auch für Konsumer Effekte, Filter und Sticker, die per Knopfdruck jedes Foto verändern. Deep Fakes machen deutlich mehr als „nur“ Bilder beschönigen.

Der Begriff Deep Fake

Zwar zeigen auch mit Photoshop bearbeitete Fotos oft genug nicht die Wirklichkeit – doch zumindest wurden die Personen oder Orte tatsächlich fotografiert. Bei Deep Fakes können Bilder entstehen, die niemand geknippst hat.  Von Deep Fakes wird gesprochen, wenn mit Hilfe von Künstlicher Intelligenz (KI) Medieninhalte – also Fotos, Videos oder Audios – massiv abgeändert, verfälscht oder sogar vollständig künstlich erzeugt wurden.

Das  „Deep“ leitet sich dabei aus der Informatik ab, denn es bezieht sich aus so genanntes „Deep Learning“ , eine spezielle, Form von KI Software bei der die Maschine mit Bildern trainiert wird und selbstständig lernt, wie zum Beispiel die Mimik einer bestimmten Person ist. So eine trainierte KI-Software kann dann Fotos oder Filme dieser Person erstellen, ohne dass der echte Mensch dafür vor einer Kamera-Linse stand.

Der Unterschied zur Manipulation mit Photoshop oder Filtern in Apps: KI-Software macht das komplett automatisch. Niemand muss Hand anlegen. Und es sieht täuschend echt aus.

Für den Laien lässt sich kaum oder gar nicht sagen, ob ein Foto, Video oder Audio echt ist oder nicht. Die Fähigkeiten solcher Software  verbessern sich rasant – und damit wird es immer schwieriger für den normalen Menschen festzustellen, ob ein Medium echt oder gefälscht ist.

Deep Fake: Obama Video künstlich erzeugt

Nicht nur Fotos: Auch Videos und Audio

Längst lassen sich mit Hilfe von KI nicht nur Fotos künstlich erzeugen oder manipulieren, sondern auch Audios und Videos. Die Firma Adobe – Erfinder von Photoshop – hat eine Software entwickelt, die in der Lage ist, mit der Stimme jeder Person so ziemliches alles sagen zu lassen. Dazu muss die KI sich lediglich 20 Minuten Audiomaterial der betreffenden Person „anhören“. Schon kann die Software mit einer fremdem Stimme „sprechen“ – und Sprechtempo, Aussprache und Intonation täuschend echt synthetisieren.

An der University of Washington haben Forscher ein KI-System entwickelt, das in der Lage ist, die Gesichtsbewegungen eines Schauspielers 1:1 auf ein Video von Barack Obama zu übertragen und so eine täuschend echt wirkende Ansprache zu erzeugen, die Obama aber niemals gehalten hat.

Adobe Voco

Gefährden Deep Fakes Gesellschaft und Demokratie?

Wenn sich mit Hilfe von KI Fotos, Videos oder Audios täuschend echt erzeugen lassen, verlieren Bilder und Töne ihre Beweiskraft. Weder vor Gericht noch in der Berichterstattung ließe sich dann sagen ob das, was dort gesehen und gehört wird, tatsächlich stattgefunden hat. Fake-Videos könnten auch für Hetze oder Propaganda genutzt werden, um Zustände vorzutäuschen, die so nicht stattfanden. Ob Original oder Fake, das lässt sich dabei kaum noch unterscheiden. Am Ende dürfte kaum jemand den Bildern oder Tönen noch trauen, selbst wenn sie tatsächlich echt sind.

Derzeit untersuchen Forscher  die möglichen Folgen von Deep Fakes auf die Demokratie und auf die Glaubwürdigkeit von Medien. Klar ist schon jetzt: Falschinformationen  verteilen sich blitzschnell über soziale Medien und im Internet. Richtigstellungen im Nachhinein erreichen deutlich weniger Menschen.  Die Forschung sucht unter anderem  nach Mitteln und Werkzeugen, um synthetisch erzeugte oder veränderte Medien zu erkennen.

Das brauchen Wir

Egal ob Foto, Video oder Audio: In naher Zukunft brauchen wir – zumindest für relevante Medieninhalte – wohl eine Art Echtheitszertifikat, damit sich die Echtheit von Fotos, Videos oder Audios belegen lässt. Eine Aufnahme vom offiziellen Statement des US-Präsidenten, das Interview mit der Kanzlerin, Pressefotos vom G7-Gipfel werden dann mit einem Zertifikat versehen (etwa in der Blockchain), damit Redaktionen jederzeit die Echtheit überprüfen können.

Selbst ob Manipulationen vorgenommen wurden, ließe sich dann erkennen. Eine solche Methode zur Dokumentation von Herkunft und Echtzeit ließe sich dann schrittweise erweitern. Irgendwann wäre es dann möglich, Quelle, Aufnahmezeitpunkt, Aufnahmeort und auch das Maß der Bearbeitung eines Mediums zu erkennen und nachzuweisen. Das würde Deep Fakes nicht unmöglich machen, aber deutlich erschweren – und leichter zu enttarnen.

 

Unsere Quellen

Lip-syncing Obama: KI legt dem Ex-Präsidenten Rede in den Mund

https://www.washington.edu/news/2017/07/11/lip-syncing-obama-new-tools-turn-audio-clips-into-realistic-video/

 

Deep Learning for Deep Fakes Creation and Detection: A Survey

https://arxiv.org/pdf/1909.11573.pdf

 

Deep Fakes mit Hilfe von KI erkennen

https://www.albany.edu/computer-science/research/deep-fakes

 

University at Buffalo: Tools, um Deep Fake-Fotos zu erkennen

https://www.buffalo.edu/news.host.html/content/shared/university/news/ub-reporter-articles/stories/2021/03/Deep Fake-o-meter.detail.html

 

MSU: Facebook develop research model to fight Deep Fakes

https://msutoday.msu.edu/news/2021/Deep Fake-detection

 

Die Gefahr von Deep Fakes für unsere Demokratie (Konrad Adenauer Stiftung, PDF)

https://www.kas.de/de/einzeltitel/-/content/die-gefahr-von-deep-fakes-fuer-unsere-demokratie

 

Schaden Deep Fakes der Demokratie? Universität Tübingen

https://uni-tuebingen.de/einrichtungen/zentrale-einrichtungen/internationales-zentrum-fuer-ethik-in-den-wissenschaften/publikationen/blog-bedenkzeiten/weitere-blog-artikel/schaden-Deep Fakes-wirklich-der-demokratie/

 

Anzahl der Deep Fakes verdoppelt sich alle neun Monate

https://mixed.de/studie-anzahl-Deep Fakes-verdoppelt-sich-in-neun-monaten/

 

 

 

 

 

 

 

SCHIEB+ Immer bestens informiert

Schieb+ Tarife
Nach oben scrollen