Der Fall Collien Fernandes hat eine überfällige Debatte losgetreten. Doch wer nur über gefälschte Nacktbilder redet – so wichtig das ist –, verpasst das Gesamtbild. Deepfakes bedrohen die Intimsphäre, die Wirtschaft, die Demokratie – und am Ende die gemeinsame Wirklichkeit.
Fangen wir mit dem Begriff selbst an: Der Begriff „Deepfake“ ist Ende 2017 auf Reddit entstanden, eine große Social‑News‑ und Diskussionsplattform. Das Wort selbst ist ein Kofferwort aus „Deep Learning“ und „Fake“.
Ein anonymer Nutzer mit dem Pseudonym „deepfakes“ hatte mithilfe neuronaler Netze (also KI) Gesichter von Schauspielerinnen in Pornovideos montiert. Der Nutzer setzte stark auf existierende Open‑Source‑Bibliotheken.
Daraus entstand u.a. die App/Software „FakeApp“, die von einem Reddit‑Nutzer stammte; Teile des Ökosystems waren offen, anderes eher als (halb-)fertiges Tool verteilt. Die Technik wurde mithilfe frei verfügbarer Open‑Source‑Software verbreitet.
Innerhalb weniger Wochen hatte das zugehörige Subreddit über 90.000 Abonnenten.
Was Deepfakes sind – und warum sie so gefährlich werden
Die technische Grundlage legten sogenannte „Generative Adversarial Networks“ (GANs), die der Informatiker Ian Goodfellow 2014 vorstellte: Zwei neuronale Netze treten gegeneinander an – eines fälscht, das andere prüft, ob das erstellte Bild den Bedingungen genügt. Ein Prinzip, das auch in ChatGPT beim Training zum Einsatz kommt.
Durch dieses Katz-und-Maus-Spiel werden die Ergebnisse immer besser.
KI-Tools sind kostenlos verfügbar
Was als Forschungsprojekt begann, ist heute per Smartphone-App verfügbar.
2017 brauchte man noch Hunderte Bilder und stundenlange Rechenzeit auf teurer Hardware. 2019 zeigte Samsung eine KI, die mit einer Handvoll Fotos überzeugende Ergebnisse lieferte. Heute reichen wenige Sekunden Audio für einen überzeugenden Stimmklon, ein einziges Foto für ein Deepfake-Bild.
Regulierung wird schwierig, denn solche Tools sind frei verfügbar, Open Source, oft kostenlos – und erfordern mittlerweile keinerlei technisches Vorwissen. Die Qualität hat 2026 eine Schwelle überschritten, an der weder das menschliche Auge noch einfache Erkennungsalgorithmen zuverlässig Fälschung von Realität unterscheiden können.
Deepfakes: Drei Dimensionen einer Bedrohung
Sexualisierte Gewalt. Beunruhigend: Über 90 Prozent aller Deepfakes sind pornografisch – in neun von zehn Fällen sind Frauen betroffen. Anfang 2026 erzeugte Elon Musks KI Grok auf der Plattform X drei Millionen sexualisierte Bilder in nur neun Tagen: von Aktivistinnen, Politikerinnen, sogar Kindern. Zwei Worte reichten aus, um Menschen auf Fotos mit Hilfe von Grok AI virtuell auszuziehen.
Was Collien Fernandes öffentlich gemacht hat – gefälschte Profile, gestohlene Identität, pornografisches Material in ihrem Namen –, erleben unzählige Frauen im Verborgenen.
UNICEF warnt vor der rasant steigenden Zahl sexualisierter KI-Bilder von Minderjährigen.
Betrug und Erpressung. Der britische Engineering-Konzern Arup verlor Anfang 2024 durch einen einzigen Deepfake-Videocall 25,6 Millionen Dollar – ein Finanzangestellter hatte 15 Überweisungen getätigt, weil er in der Videokonferenz seinen CFO und mehrere Kollegen zu sehen glaubte. Alle waren KI-generiert.
Bei Ferrari scheiterte ein ähnlicher Angriff nur, weil ein Manager eine persönliche Frage stellte, die die KI hinter der geklonten Stimme des Vorstandsvorsitzenden nicht beantworten konnte. Voice-Cloning-Betrug ist 2025 gegenüber dem Vorjahr um 680 Prozent gestiegen.
Drei Sekunden Audiomaterial reichen für eine 85-prozentige Stimmkopie. Kriminelle nutzen die Technik auch zur Erpressung: kompromittierende Deepfake-Videos als Druckmittel, die nie stattgefundene Situationen zeigen.
Deepfakes richten auf vielen Ebenen Schaden an
Und es trifft längst nicht nur Konzerne: Betrüger klonen Stimmen von Familienmitgliedern für angebliche Notrufe, fingieren Liebesbeziehungen auf Dating-Plattformen per Deepfake-Videocall oder erzeugen gefälschte Ausweisdokumente. Die Deepfake-Betrugsrate stieg in Deutschland im ersten Quartal 2025 um 1.100 Prozent.
Politische Manipulation. Im slowakischen Wahlkampf 2023 tauchte kurz vor der Wahl ein Audio-Deepfake auf, in dem ein Spitzenkandidat über Wahlbetrug sprach. Für eine Richtigstellung war es zu spät. In der Türkei trat ein Kandidat zurück, nachdem ein fabriziertes Porno-Video verbreitet wurde.
Bei Irlands Präsidentschaftswahl 2025 zeigte ein gefälschtes Video den späteren Sieger beim angeblichen Rückzug seiner Kandidatur, inklusive gefakter Bestätigungen nationaler Nachrichtensender. In der Ukraine sollte ein Deepfake-Selenskyj die eigenen Soldaten zur Kapitulation aufrufen. Das sind keine Gedankenexperimente. Das passiert jetzt, überall auf der Welt.
Das Paradox: Wenn alles Deepfake sein könnte
Und hier wird es richtig perfide: Deepfakes müssen nicht einmal erfolgreich täuschen, um Schaden anzurichten. Die bloße Existenz der Technologie vergiftet mittlerweile den Diskurs. Denn jedes echte Video kann leicht als Fälschung abgetan werden, jedes Geständnis als KI-Manipulation.
Die Konrad-Adenauer-Stiftung bringt es auf den Punkt: Wenn potenziell alles ein Deepfake sein könnte, gibt es immer Raum für Zweifel. Dieses „Dividende der Lügner“ zerstört Vertrauen in Medien, Institutionen und die gemeinsame Wirklichkeit. Und eine Demokratie, die ihre gemeinsame Wirklichkeit verliert, hat ein existenzielles Problem.
Die aktuelle Debatte, die auch längst nicht immer faktenbasiert erfolgt, verstärkt das Problem.
Rechtslage: Viel Lücke, wenig Gesetz
Die aktuelle Rechtslage in Deutschland ist ein Flickenteppich. Pornografische Deepfakes sind nicht explizit strafbar – Ermittler müssen auf den Beleidigungs-Paragrafen oder das Kunsturhebergesetz zurückgreifen, die für das Phänomen schlicht nicht gemacht sind. In ganz Europa hat bislang nur Italien KI-generierte Nacktbilder ausdrücklich unter Strafe gestellt.
Bundesjustizministerin Stefanie Hubig will das ändern. Ein neuer Paragraf 184k StGB soll die Herstellung und Verbreitung pornografischer Deepfakes bestrafen. Ein ergänzender Paragraf 201b soll nicht-pornografische Deepfakes erfassen – also die verleumderischen und manipulativen.
Juristen warnen aber schon vor einer Hintertür: Reicht eine Kennzeichnung als „Fake“, um die Strafbarkeit auszuhebeln?
Marc-Uwe Kling hat mit über 400.000 Unterschriften ein generelles Deepfake-Verbot gefordert – ohne Ausnahme, auch nicht für Satire.
Auch der EU AI Act bringt ab August 2026 eine Kennzeichnungspflicht für KI-generierte Inhalte. Aber seien wir ehrlich: Kriminelle, die Deepfakes zur Erpressung einsetzen, werden sich nicht an Kennzeichnungspflichten halten.
Was wirklich passieren muss
Erstens: Gesetze, die alle Dimensionen abdecken – sexualisierte, verleumderische und manipulative Deepfakes. Nicht nur die Verbreitung, sondern die Herstellung ohne Einwilligung. Und zwar ohne Schlupflöcher über Kennzeichnung.
Zweitens: Durchsetzungsfähigkeit. Was nützt ein neuer Paragraf, wenn auf den Schreibtischen der Staatsanwaltschaften über eine Million offene Verfahren liegen? Collien Fernandes hat nicht ohne Grund in Spanien Anzeige erstattet statt in Deutschland. Es braucht spezialisierte Ermittlungseinheiten, forensische KI-Werkzeuge und verbindliche Löschfristen für Plattformen.
Drittens: Internationale Koordination. Deepfakes kennen keine Landesgrenzen. Nationale Alleingänge greifen ins Leere, wenn das Material auf Servern in Drittstaaten liegt. Europa muss vorangehen – mit grenzüberschreitender Strafverfolgung, verbindlichen Plattformpflichten und technischen Standards für Content-Authentizität.
Die Debatte darf nicht beim Entsetzen über DeepNudes stehen bleiben – so wichtig und richtig dieses Entsetzen ist. Deepfakes greifen das Betriebssystem unserer Öffentlichkeit an: die Fähigkeit, zwischen wahr und falsch zu unterscheiden. Dafür brauchen wir Gesetze, die nicht dem letzten Skandal hinterherlaufen. Sondern dem nächsten voraus sind.