Fakes erkennen

Facebook will weniger Deepfake-Videos

Facebook hat schon vor Monaten angekündigt, aktiv etwas gegen Manipulationen zu unternehmen – schließlich sind bald Präsidentschaftswahlen in den USA. Jetzt hat Facebook angekündigt, künftig Deepfake-Videos aus dem Netzwerk zu verbannen.

Mit Künstlicher Intelligenz (KI) ist heute so Einiges möglich. Es ist zum Beispiel kein Problem, praktisch jeden Text mit einer fremden Stimme sprechen zu lassen. Adobe hat solche Software in der Entwicklung: Sie wird trainiert – etwa mit Beispielen aus öffentlich zugänglichen Interviews – und wenig später plappert die Software mit der Stimme von Trump, Putin oder Merkel.

Andere KI-Software wiederum kann Videobilder so manipulieren, dass man zum Audio auch noch das passende Video bekommt. Deepfake nennt sich das dann. Für den Laien sind solche Videos von echten Aufnahmen praktisch nicht zu unterscheiden.

, Facebook will weniger Deepfake-Videos

Erkennbare Deepfakes werden entfernt – außer bei Satire

Wenn man sich die Ergebnisse anschaut, die heutzutage durchaus beeindruckend sind, ist das erst mal unterhaltsam. Bei näherer Betrachtung aber auch bedrohlich: Denn was, wenn jemand Donald Trump – in diesen hässlichen Zeiten – bestimmte Worte in den Mund legt, die er gesagt haben könnte, aber nicht gesagt hat? Etwa eine Kriegserklärung an den Iran. Alles denkbar – und leider auch technisch möglich. Und was möglich ist, das wird auch passieren – früher oder später.

Deshalb hat sich Facebook entschlossen, Deepfakes aus dem Angebot zu entfernen. Freilich erst, wenn sie entdeckt werden – was aufgrund der Qualität mancher Deepfakes alles andere als einfach ist. Und: Die Deepfakes sollen nur dann entfernt werden, wenn sie „ernst gemeint sind“, erklärt das Unternehmen. Bedeutet: Parodien und Satire mit Deepfakes sind erlaubt. Die Content-Moderatoren müssen also ganz genau hinschauen. Und wie wir wissen: Satire kann auch Empörungsstürme auslösen. 

Blockchain könnte Authentizität von Fotos und Videos dokumentieren

Generell ist es aber eine gute Idee, kritische Deepfakes nicht zuzulassen und sie aktiv zu entfernen. Mittelfristig werden wir uns wohl auch privat Gedanken darüber machen müssen, die Authentizität von Fotos, Videos und Audios besser überprüfen zu können. Kommt das Video aus dem Weißen Haus wirklich aus dem Weißen Haus? Mit Blockchain wäre es durchaus möglich, die Echtheit nachzuweisen – und zu sehen, ob etwas manipuliert wurde und von wem.

Das scheint dringend nötig. Facebook betrachtet Deepfakes als „große Herausforderung für unsere Branche und Gesellschaft, wenn ihr Einsatz zunimmt“. Redaktionen müssen noch genauer hinsehen, „normale“ User, die so etwas in einem Sozialen Netzwerk sehen, könnten Deepfakes schnell für glaubhaft halten. Wie genau Facebook solche gefälschten Videos identifizieren will, erklärt das Unternehmen nicht. Der Konzern verweist lediglich auf die Brancheninitiative Deepfake Detection Challenge und eine Zusammenarbeit mit der Nachrichtenagentur Reuters.

Der Zeitpunkt für die Ankündigung ist nicht zufällig: Dieses Jahr wird in den USA gewählt – und da ist mit zahlreichen Manipulationsversuchen zu rechnen. Auch mit Deepfakes. Mark Zuckerberg hat der US-Politik Zusagen gemacht (machen müssen), etwas gegen Manipulationen zu unternehmen. Gut, dass das Unternehmen mal etwas unternimmt, wenn es noch nicht zu spät ist.

SCHIEB+ Immer bestens informiert

Schieb+ Tarife
Nach oben scrollen