DeepFakes 2026: Wie KI Videos und Fotos perfekt fälscht

von | 21.11.2018 | Digital

Es ist heute erschreckend einfach geworden, Fotos und Videos derart grundlegend zu verändern, dass sie nicht mehr die Wahrheit zeigen. Die Technologie ist so weit fortgeschritten, dass selbst Experten oft Schwierigkeiten haben zu erkennen: Hat jemand wirklich das gesagt, was wir sehen und hören? Während Deep-Fakes immer perfekter werden, entwickelt sich parallel eine ganze Industrie von Erkennungstools.

Von Fake-News haben wir mittlerweile reichlich gehört. Doch Deep-Fakes gehen einen entscheidenden Schritt weiter: Sie manipulieren nicht nur Informationen, sondern schaffen völlig neue „Realitäten“ mit Video- und Fotomaterial, das nie so existiert hat. Das macht sie besonders gefährlich und glaubwürdig.

Deep-Fakes haben sich zur Massenware entwickelt

Als Deep-Fakes werden Fotos oder Videos bezeichnet, die mit Hilfe von Künstlicher Intelligenz manipuliert wurden. Was früher aufwändige Spezialeffekte in Hollywood-Studios erforderte, schafft heute jeder mit einem Smartphone. Apps wie FaceSwap, DeepFaceLab oder sogar TikTok-Filter nutzen neuronale Netzwerke, um Gesichter zu tauschen oder Stimmen zu imitieren.

Die Qualität dieser Fälschungen ist mittlerweile so hoch, dass sie selbst bei genauer Betrachtung kaum zu erkennen sind. Besonders problematisch: Die KI lernt aus Millionen von Bildern und Videos, die im Internet verfügbar sind. Je mehr Material von einer Person existiert, desto überzeugender wird der Deep-Fake.

2024 und 2025 haben uns gezeigt, welche Auswirkungen das haben kann: Gefälschte Videos von Politikern kurz vor Wahlen, manipulierte Aussagen von CEOs, die Aktienkurse beeinflussen, oder Deep-Fake-Pornografie, die das Leben von Betroffenen zerstört. In der Ukraine und anderen Krisengebieten werden Deep-Fakes gezielt als Waffe der Desinformation eingesetzt.

Per App lassen sich sogar Fotos zum Leben erwecken

KI gegen KI: Der Wettkampf um die Wahrheit

Die gute Nachricht: Parallel zur Entwicklung immer besserer Deep-Fake-Technologien entstehen auch immer ausgefeiltere Erkennungssysteme. Unternehmen wie Microsoft, Google und Meta investieren Millionen in die Entwicklung von Deep-Fake-Detektoren.

Microsoft hat mit seinem „Video Authenticator“ bereits 2023 ein Tool vorgestellt, das manipulierte Videos in Echtzeit erkennen kann. Google arbeitet an einer Browser-Extension, die verdächtige Inhalte markiert. Meta hat seine KI-Systeme so trainiert, dass sie Deep-Fakes auf Facebook und Instagram automatisch erkennen und löschen.

Doch es bleibt ein Wettrüsten: Sobald die Erkennungssoftware besser wird, passen sich auch die Fälschungsalgorithmen an. Experten sprechen von einem „adversarial game“ – einem Spiel zwischen Angreifern und Verteidigern, bei dem beide Seiten ständig dazulernen.

Blockchain als digitaler Fingerabdruck

Einen anderen Ansatz verfolgen Unternehmen wie Truepic und Numbers Protocol: Sie setzen auf Blockchain-Technologie, um Inhalte bereits bei der Aufnahme zu authentifizieren. Moderne Smartphones können mittlerweile kryptographische Signaturen erstellen, die wie ein digitaler Fingerabdruck funktionieren.

Diese „Content Credentials“ werden direkt in die Metadaten von Fotos und Videos eingebettet. Jede noch so kleine Veränderung macht die Signatur ungültig – ein sicheres Zeichen für eine Manipulation. Adobe hat diesen Standard in seine Creative Suite integriert, und auch Kamerahersteller wie Canon und Sony arbeiten an entsprechenden Features.

Das Problem: Diese Technologie funktioniert nur, wenn sie von Anfang an verwendet wird. Bereits existierende Inhalte ohne digitale Signatur bleiben weiterhin anfällig.

Was jeder von uns tun kann

Bis die technischen Lösungen flächendeckend verfügbar sind, müssen wir alle kritischer werden. Einige Warnsignale für Deep-Fakes:

  • Unnatürliche Augenbewegungen oder fehlendes Blinzeln
  • Inkonsistente Beleuchtung im Gesicht
  • Merkwürdige Übergänge zwischen Kopf und Körper
  • Verpixelte oder unscharfe Bereiche um den Mund
  • Audio, das nicht perfekt zur Lippenbewegung passt

Browser-Extensions wie „Fake News Debunker“ oder „InVID“ helfen dabei, verdächtige Inhalte zu überprüfen. Reverse-Image-Suchen können zeigen, ob ein Bild bereits anderweitig verwendet wurde.

Am wichtigsten bleibt aber: Bei spektakulären oder emotionalen Inhalten immer eine zweite Quelle suchen. Seriöse Medien haben meist eigene Fact-Checking-Teams, die Deep-Fakes aufspüren.

Die Zukunft der digitalen Wahrheit

Experten gehen davon aus, dass Deep-Fakes in den nächsten Jahren noch perfekter werden. Gleichzeitig arbeiten Forscher an neuen Erkennungsmethoden: KI-Systeme, die biologische Unregelmäßigkeiten erkennen, die auch die beste Software nicht perfekt nachahmen kann – etwa minimale Variationen im Pulsschlag, die sich in winzigen Farbveränderungen der Haut zeigen.

Die EU arbeitet an Gesetzen, die Deep-Fakes kennzeichnungspflichtig machen sollen. In den USA gibt es bereits erste Bundesstaaten mit entsprechenden Vorschriften. Doch wie bei allen digitalen Phänomenen hinkt die Gesetzgebung der technischen Entwicklung hinterher.

Die wichtigste Erkenntnis: In einer Welt voller Deep-Fakes wird kritisches Denken zur wichtigsten Kompetenz. Nicht alles zu glauben, was man sieht, wird zum Überlebensskill im digitalen Zeitalter.

Zuletzt aktualisiert am 06.03.2026