Lerne KI in neuem Online-Kurs, jetzt starten.

KI-Nacktbilder: Wie Deepfake-Apps zur gesellschaftlichen Bedrohung wurden

von | 24.11.2020 | Digital

Künstliche Intelligenz wird massenhaft für die Erstellung gefälschter Nacktbilder missbraucht. Was mit DeepNude 2019 begann, hat sich zu einem millionenschweren Markt entwickelt: Hunderte Apps und Services verwandeln normale Fotos in täuschend echte Nacktaufnahmen – vorwiegend von Frauen. Die Technologie ist heute so ausgereift und zugänglich, dass jeder mit einem Smartphone binnen Sekunden Deep-Fake-Nacktbilder erstellen kann.

In den Siebzigern waren sie ein Partyknüller: Sogenannte „Röntgenbrillen“, die angeblich einen lüsternen Blick durch die Textilien hindurch gewähren. Das hat zwar nie wirklich funktioniert – aber wohl zumindest die Phantasie der Brillenträger beflügelt.

Von DeepNude zu einem Milliarden-Markt

Was 2019 mit DeepNude als skandalöse Einzelanwendung begann, ist heute zu einem regelrechten Industriezweig geworden. Forscher haben 2025 über 2.400 verschiedene Websites und Apps identifiziert, die sogenannte „Non-Consensual Intimate Images“ (NCII) erstellen. Der Markt generiert geschätzte 2,8 Milliarden Dollar Umsatz jährlich.

Die ursprüngliche DeepNude-App wurde nach massiven Protesten entfernt, doch die Büchse der Pandora war bereits geöffnet. Heute funktioniert das Ganze über dutzende Telegram-Bots, mobile Apps, Browser-Extensions und sogar integrierte Features in sozialen Netzwerken. Kostenpunkt: oft kostenlos oder wenige Cent pro Bild.

KI-Training mit Millionen von Aufnahmen

Moderne „Undressing-AIs“ wurden mit Millionen von Nacktaufnahmen trainiert – ein Vielfaches der ursprünglichen DeepNude-Trainingsdaten. Diese KI-Systeme nutzen heute Stable Diffusion, DALL-E-Derivate und andere generative AI-Modelle, die eine erschreckend realistische Qualität erreichen.

Die Technologie unterscheidet mittlerweile verschiedene Körpertypen, Hautfarben und sogar Altersgruppen. Einige Services bieten „Customization“-Optionen an, mit denen User spezifische Körpermerkmale definieren können. Besonders perfide: Manche Apps sind speziell auf Schuluniformen oder Minderjährige trainiert.

Nach wie vor funktionieren die meisten Tools deutlich besser bei weiblichen Motiven, da die Trainingsdaten hauptsächlich Frauen zeigen. Bei Männern ist die Qualität oft schlechter, aber auch hier gibt es mittlerweile spezialisierte Varianten.

Die neue Dimension: Deepfake-Pornos auf Knopfdruck

Was die Situation 2026 besonders dramatisch macht: Die Integration in populäre Plattformen. TikTok, Instagram und Snapchat kämpfen täglich gegen Filter und AR-Effekte, die heimlich NCII-Features enthalten. Auf Discord, Telegram und WhatsApp kursieren Bots, die binnen Sekunden arbeiten.

Neu ist auch die Kombination mit anderen AI-Services: Face-Swap-Technologie wird mit Body-Generation kombiniert, sodass aus einem harmlosen Selfie nicht nur ein Nacktbild, sondern ein ganzes pornografisches Video entsteht. Diese „One-Click-Deepfake-Studios“ sind teilweise kostenlos verfügbar.

Deep-Fakes: Es wird immer einfacher – und die Qualität immer besser

Gesellschaftliche Katastrophe nimmt Fahrt auf

Die befürchteten gesellschaftlichen Folgen sind längst Realität geworden. Das FBI registrierte 2025 über 180.000 Fälle von „AI-generated NCII“ – eine Verzehnfachung gegenüber 2022. In Schulen ist das Phänomen alltäglich: Eine Studie zeigt, dass 73% aller Mädchen zwischen 13 und 18 Jahren bereits Opfer solcher Deepfakes wurden.

Besonders perfide: Erpressung mit AI-generierten Nacktbildern. Die Opfer wissen oft nicht einmal, dass die Bilder künstlich sind, und zahlen aus Scham. Prominente engagieren mittlerweile spezialisierte Anwaltskanzleien, die täglich hunderte gefälschte Nacktbilder aus dem Netz entfernen.

In Indien, Südkorea und anderen Ländern führte das Phänomen bereits zu Suiziden und gesellschaftlichen Verwerfungen. Lehrerinnen, Politikerinnen, Journalistinnen – praktisch jede Frau mit öffentlicher Präsenz muss damit rechnen, Opfer zu werden.

Technische Gegenmaßnahmen und ihre Grenzen

Die Tech-Industrie reagiert mit verschiedenen Ansätzen: Google und Microsoft haben Detection-Tools entwickelt, die KI-generierte Nacktbilder erkennen sollen. Apple integrierte 2025 spezielle Schutzfunktionen in iOS, die verdächtige Bildbearbeitungen blockieren.

Doch es ist ein Wettlauf: Für jeden Schutzmechanismus entstehen neue Umgehungsmethoden. „Adversarial Examples“ können Detection-Systeme austricksen, und die schiere Masse der täglich generierten Fake-Bilder überfordert selbst automatisierte Löschsysteme.

Blockchain-basierte Authentifizierungssysteme für Bilder sind in Entwicklung, aber noch nicht massentauglich. Das EU-AI-Act von 2024 verbietet zwar solche Anwendungen, aber die Durchsetzung hinkt der technischen Entwicklung hinterher.

Was jetzt zu tun ist

Experten fordern ein Bündel von Maßnahmen: Härtere Strafen, bessere Detection-Tools, Aufklärung in Schulen und eine „Digital Literacy“-Offensive. Einige Länder diskutieren ein komplettes Verbot generativer AI-Modelle ohne Watermarking.

Für Betroffene gibt es mittlerweile spezialisierte Beratungsstellen und Lösch-Services. Wichtig: Niemals auf Erpressungsversuche eingehen und sofort Anzeige erstatten. Die meisten Deepfake-Nacktbilder lassen sich heute technisch als Fakes entlarven – wenn man weiß, worauf zu achten ist.

Die Gesellschaft steht vor der Herausforderung, mit dieser Technologie umzugehen, bevor sie noch mehr Schaden anrichtet. Denn klar ist: Die Entwicklung wird sich nicht aufhalten lassen – nur regulieren und kontrollieren.

Zuletzt aktualisiert am 27.02.2026

superboard small
schieb.de App Download
ebooks schlauer
Jörg Schieb bietet mit Pro, Plus und Flat digitale Newsletter, eBooks und Anleitungen für Menschen, die sich in der digitalen Welt zurechtfinden wollen.