Es ist heute durchaus möglich, Fotos und Videos derart grundlegend zu verändern, dass sie nicht mehr die Wahrheit sagen – und zeigen. Wie soll man damit umgehen? Hat jemand wirklich das gesagt, was wir sehen und hören? Es gibt erst Ansätze, um solche Deep-Fakes zu enttarnen.
Von Fake-News haben wir mittlerweile reichlich gehört. Die meisten sind verunsichert, da sie gar nicht genau wissen, was nun Fake-News sind und was nicht. Es gibt auch kein geeignetes Werkzeug, um das bei einer konkreten Nachricht herauszufinden: Fake – oder echt? Genau das soll es aber bei Deep-Fakes künftig geben. Eine App, die einem verrät, ob eine Manipulation vorliegt.
Deep-Fakes werden ein immer größeres Problem
Die meisten werden nun fragen: Deep-Fakes – was ist das denn schon wieder? Als Deep-Fakes werden Fotos oder Videos bezeichnet, die manipuliert wurden. Wie einfach es ist, mit Photoshop oder anderen Programmen ein Gesicht zu verändern, ist mittlerweile bekannt. Die Zahl der Spaß-Apps, die so etwas erlauben, ist riesig. Aber auch Videos lassen sich heute kinderleicht fälschen und manipulieren.
So ist es längst kein Problem mehr, Ex-US-Präsident Barack Obama oder US-Präsident Donald Trump etwas in den Mund zu legen – und es täuschend echt Aussehen zu lassen. Weil bei diesen Täuschungen KI-Software (Deep Learning) zum Einsatz kommt, die schnell „lernt“, wie sich eine Person bewegt und mimisch ausdrückt, wird diese Methode Deep-Fake genannt. Ein zunehmendes Problem, weil nun auch Videos nicht mehr als Beleg taugen. Sie könnten gefälscht sein.
Per App lassen sich sogar Fotos zum Leben erwecken
Aufnahmen müssen versiegelt werden
Doch nun arbeiten unterschiedliche Firmen an Apps für iOS und Android, die es leichter machen sollen, solche Fälschungen zu enttarnen. Eine Art Lackmustest für Fotos und Videos. Truepic und Serely heißen die Verfahren, die gerade entwickelt werden. Sie setzen allerdings voraus, dass schon beim Fotografieren oder Filmen diese Technik eingesetzt wird, um die Aufnahmen zu „versiegeln“. So lassen sich dann spätere Manipulationen erkennen. Schon ein Pixel reicht, und der Algorithmus schlägt an.
Ein erster Schritt in die richtige Richtung. So ließen sich zum Beispiel offizielle Pressekonferenzen oder Aufnahmen aus Krisengebieten absichern, damit spätere Manipulationen erkannt werden können. Werkzeuge, die in Zukunft öfter zum Einsatz kommen könnten – und sollten.