KI macht es möglich, Menschen in Sekundenschnelle in gefälschte Pornos zu montieren. Das deutsche Strafrecht hat darauf lange keine Antwort gehabt. Der Fall der Schauspielerin Collien Fernandes ändert das gerade.
Es begann mit gefälschten Profilen auf LinkedIn und Parship. Jemand hatte den Namen und das Gesicht von Collien Fernandes genutzt, um Fake-Accounts anzulegen – und in ihrem Namen anzügliche Chats mit fremden Männern zu führen. Dann kamen gefälschte Nacktfotos, Accounts, die mit ihrem Gesicht Telefonsex anboten, pornografische Videos – all das ohne ihr Wissen.
Seit zwei Jahrzehnten steht die Schauspielerin und Moderatorin in der Öffentlichkeit. Genauso lange hat sie mit sexualisierenden Darstellungen von sich und digitalem Missbrauch zu kämpfen. Jahrelang dachte sie, anonyme Trolle steckten dahinter. Dann, nach eigenen Angaben, kam das Geständnis vom letzten Menschen, den sie dort erwartet hätte: ihrem damaligen Ehemann Christian Ulmen.
Ob die Beschuldigungen von Fernandes zu einer Anklage führen, ist derzeit noch unklar – für Christian Ulmen gilt die Unschuldsvermutung. Seine Anwälte bezeichnen die Berichterstattung als rechtswidrig und haben rechtliche Schritte gegen den Spiegel angekündigt.
Aber darum geht es hier eigentlich nicht. Der Fall hat nämlich eine viel größere Debatte ausgelöst – eine, die uns alle angeht.

Was KI mit ein paar Klicks anrichten kann
Was früher aufwändig bearbeitet werden musste, erfordert heute wenige Klicks: KI macht es möglich – ob als App oder Bot. Fotos beliebiger Menschen verwandeln sich in Sekundenschnelle in pornografische Bilder oder Videos.
Das ist kein abstraktes Zukunftsszenario. Zum Jahresbeginn 2026 reichten zwei Worte aus, damit Elon Musks KI „Grok“ auf der Plattform X Menschen auf Fotos virtuell auszog – natürlich ohne deren Zustimmung. In nur neun Tagen entstanden drei Millionen sexualisierte Bilder von Aktivistinnen, Politikerinnen, Holocaust-Überlebenden und Kindern.
Die Zahlen dahinter sind erschreckend: Nach Schätzungen von Experten sind weltweit bereits Hunderttausende Menschen Opfer von Deepfakes. Bei über 90 Prozent aller Deepfakes handelt es sich um nicht einvernehmliche pornografische Inhalte. In neun von zehn Fällen trifft es Frauen. Und jede fünfte Frau in Deutschland erlebte in den vergangenen fünf Jahren digitale Gewalt – das zeigt eine aktuelle Studie von Bundesregierung und Bundeskriminalamt.
Das Strafrecht: voller Lücken
Hier liegt das eigentliche Problem. Pornografie zu fälschen ist in Deutschland bisher kein eigener Straftatbestand. Strafbar macht sich nur, wer solches Material verbreitet – und auch dann nur wegen der Verletzung des Persönlichkeitsrechts.
Das klingt nach einer Kleinigkeit, ist es aber nicht. Denn wer ein Deepfake herstellt und es auf dem eigenen Gerät behält – oder in geschlossenen Gruppen teilt – bewegt sich aktuell in einer rechtlichen Grauzone. Betroffene, die klagen wollen, müssen mühsam Umwege über das Recht am eigenen Bild, Beleidigung oder üble Nachrede konstruieren. Die Erfolgsaussichten gelten als gering.
Die Beratungsstelle HateAid, die sich gegen digitale Gewalt engagiert, hat bereits im Januar einen konkreten Gesetzentwurf vorgelegt. Sie schlägt vor, den bestehenden Paragrafen zur Verletzung des Intimbereichs durch Bildaufnahmen zu erweitern: Sowohl die Herstellung als auch der unbefugte Gebrauch und die Verbreitung sexualisierter Deepfakes sollten strafbar werden.
Justizministerin kündigt Gesetz an – fast zu spät
Bundesjustizministerin Stefanie Hubig (SPD) hat nun eine Gesetzesinitiative angekündigt. „Aus meiner Sicht sollte das Erstellen und Verbreiten von sexualisierten Deepfakes unter Strafe stehen“, sagte sie. „Dabei geht es mir nicht nur um pornografische KI-Bilder, sondern generell um Fakes, die in Persönlichkeitsrechte eingreifen.“
Nach LTO-Informationen liegt ein entsprechender Gesetzentwurf im Ministerium nahezu fertig in der Schublade und soll in Kürze der Öffentlichkeit vorgestellt werden. Außerdem will Hubig ermöglichen, dass Accounts von Tätern per richterlicher Anordnung gesperrt werden können, wenn sie massiv Recht verletzen.
Und international? Italien hat im vergangenen September die Steilvorlage geliefert und ist das erste europäische Land, das die Verbreitung gefälschter KI-Aufnahmen mit bis zu fünf Jahren Haft bestraft. Dass ausgerechnet ein Land unter Giorgia Meloni hier Vorreiter ist, hat auch damit zu tun, dass die Ministerpräsidentin selbst Opfer von Deepfakes wurde.
Auch die EU will das Problem im Rahmen ihrer neuen KI-Verordnung angehen – möglicherweise noch in dieser Woche.
Was du jetzt wissen solltest
Collien Fernandes hat sich bewusst entschieden, mit ihrer Geschichte an die Öffentlichkeit zu gehen. Als Vorbild nennt sie Gisèle Pelicot, deren Satz „Die Scham muss die Seite wechseln“ für sie zum Leitmotiv geworden ist.
Das ist mutig. Und es wirkt. Weil der Fall zeigt, was bislang viel zu leicht unter den Tisch gefallen ist: Digitale Gewalt ist echte Gewalt. Betroffene berichten von Panikattacken, Angstzuständen, sozialem Rückzug und dem Gefühl, die Kontrolle über den eigenen Körper verloren zu haben. Das passiert Menschen, die ihr Gesicht öffentlich zeigen – aber auch ganz normalen Privatpersonen.
Die Technologie, um ein Deepfake zu erstellen, ist heute kostenlos, weit verbreitet und braucht keinerlei technisches Vorwissen. Das Gesetz, das dagegen schützt, kommt erst jetzt. Für sehr viele Betroffene ist das zu spät.
Willst du wissen, was du tun kannst, wenn du selbst oder jemand aus deinem Umfeld betroffen ist? Die Beratungsstelle HateAid bietet kostenlose Erstberatung und konkrete rechtliche Hilfe.