DeepFakes: Wie umgehen mit Fake-Fotos und wie sie erkennen?

von | 02.04.2023 | Digital

DeepFakes werden immer besser, lassen sich immer schwerer erkennen – und sind gleichzeitig immer einfacher herzustellen. Eine unheilvolle Kombination.

Im Netz kursieren nicht nur merkwürdige Behauptungen und FakeNews, sondern immer öfter auch merkwürdige Fotos – und Fake-Fotos. Gerade erst zum Beispiel Fotos, die den Papst in stylischer Daunenjacke zeigen. Kaum zu glauben, oder?

Aber es handelt sich dabei um ein Fake-Foto. Erzeugt mit Hilfe von Künstlicher Intelligenz (KI). Die Aufnahmen, die solche KI-Systeme ausspucken, werden immer überzeugender. Gleichzeitig wird es immer einfach, solche Bilder zu erstellen.

Fotos, die Donald Trump in einer solchen Situation zeigen, sind brisant

Fotos, die Donald Trump in einer solchen Situation zeigen, sind brisant

DeepFakes vom Papst in weißer Luxusjacke

Papst Franziskus in hipper Daunenjacke. Ein wenig ungewöhnlich zwar – aber warum nicht? Vielleicht ist es gerade kalt in Rom. Sieht jedenfalls echt aus… Ist aber Fake. Eine Fälschung.

Dasselbe gilt für diese Aufnahmen. Sie zeigen Donald Trump, wie er sich energisch einer Verhaftung widersetzt. Macht Sinn: In New York droht ihm aktuell tatsächlich eine Haftstrafe. Aber: Ebenfalls Fake. Ebenso diese Aufnahme, die Wladimir Putin knieend vor dem chinesischen Regierungschef Xi Jinping zeigt.

Alles Fake-Bilder. Entstanden mit Hilfe von KI, Künstlicher Intelligenz.

Mit KI lassen sich eben nicht nur Texte erstellen, Stichwort ChatGPT, sondern auch Bilder. Auch Fotos. Aufnahmen, die zumindest auf den ersten Blick täuschend echt aussehen. Und das immer einfacher – und nahezu kostenlos.

Solche Aufnahmen werden Deepfakes genannt. Deep, weil Deep Learning dahintersteckt. Eine besondere Art von KI-Technologie. Und Fake – na ja, weil es eben Fakes sind. Fälschungen.

Es gibt diverse KI-Systeme, mit denen sich hochwertige Deepfakes herstellen lassen

Es gibt diverse KI-Systeme, mit denen sich hochwertige Deepfakes herstellen lassen

Midjourney erstellt fotorealistische Bilder

Eine solche KI ist Midjourney. Die erzeugt im Augenblick technisch gesehen die besten Bilder. Es reicht, dass ich sage: Ich brauche ein Bild von Donald Trump in Moskaus – und voilà. Haben wir Fotos von Donald Trump im Moskau.

Wer sich noch ein bisschen mehr Mühe gibt bei der Beschreibung, dem sogenannten Prompt, der bekommt schnell noch viel bessere Aufnahmen. Das alles dauert nicht lange und kostet auch nicht viel. Gerade erst ist die neue Version 5 von Midjourney an den Start gegangen: Spezialisiert auf fotorealistische Aufnahmen – aus der KI.

Es gibt derzeit ein halbes Dutzend solcher KI-Systeme – und unzählige Apps, die darauf aufsetzen. Auch auf dem Smartphone – aber da dienen sie eher dem Spaß, mit deutlich schlechteren Ergebnissen. Die Profisysteme hingegen werden immer besser, liefern immer bessere Ergebnisse.

Midjourney produziert erstaunliche Fotos und Aufnahmen

Midjourney produziert erstaunliche Fotos und Aufnahmen

DeepFakes immer einfacher herzustellen

Ein kompromittierendes Foto von einem angeblich „heimlichen“ Treffen einer jungen Frau und Donald Trump – das lässt sich mit Werkzeugen wie Midjourney wirklich schnell und einfach herstellen. Wer ein paar Fotos der betreffenden Frau hochlädt, kann sie von der KI nachbilden lassen.

Und das macht die Brisanz deutlich: Wer Menschen mittels Deepfakes in bestimmten Situationen präsentiert, kann schnell ihren Ruf ruinieren und auch massive Folgen haben. Und wenn es um Politiker geht, kann ganz leicht ein gesellschaftlicher Schaden entstehen. Auch politischer Tumult. Oder Tumulte an den Börsen.

Keine Frage: Die Technologie, die es erlaubt und ermöglicht, Deepfakes herzustellen, ist hoch explosiv. Denn niemand kann wissen, wer, was damit anstellt. Wir müssen also genauer hinschauen, wenn wir Fotos präsentiert bekommen…“

Wenn Jörg mal ins Weiße Haus einzieht...

Wenn Jörg mal ins Weiße Haus einzieht…

Kleine Hinweise für den Fake

Noch enthalten die meisten Deepfake-Fotos kleine Unstimmigkeiten. Vor allem an Armen und Händen – wie hier bei Susanne. Die sehen unstimmig aus, manchmal fehlen Finger.

Auch gibt es oft sogenannte Artefakte. Kleine Störungen im Bild. Das sieht man aber erst, wenn man ganz genau hinschaut.

Es gibt schon Werkzeuge, die einem sagen, wie hoch die Wahrscheinlichkeit ist, dass ein Foto von KI erstellt wurde – oder eben doch von einem Menschen.

Wir müssen als Gesellschaft auf der Hut sein. Wir werden künftig aller Voraussicht nach überschüttet mit Deepfakes. Nicht nur Fotos. Auch Videos. Denn schon werden KI-Systeme öffentlich zugänglich, etwa Dreamix, die mehr oder weniger dasselbe auch für Videos ermöglichen. Es wird also noch wichtiger, alles zu hinterfragen, was man im Netz findet. Nicht nur Texte, auch Fotos und Videos.

Hinweise für DeepFakes sind Störungen und Unzulänglichkeiten

Hinweise für DeepFakes sind Störungen und Unzulänglichkeiten

Schieb App