KI-Crawler gegen Missbrauchsdarstellungen: Deutschland hinkt hinterher

von | 24.06.2020 | Digital

Es sind abscheuliche Taten, die Kinder zu hilflosen Opfern machen – die Rede ist von sexuellem Missbrauch. Das Internet macht es Tätern viel zu leicht: Hier kann jeder bequem in den Schutz der Anonymität abgleiten – und muss kaum etwas befürchten. Im sogenannten Darknet ist das Problem noch viel größer: Die Polizei hat kaum eine Chance, den Tätern auf die Schliche zu kommen, wenn die keine Fehler machen. Mit technischen Mitteln jedenfalls ist das kaum möglich.

Diese abscheulichen Taten, die Kinder zu hilflosen Opfern machen, können gar nicht klar genug benannt werden. Es ist Missbrauch – und zwar der schlimmsten Sorte. Daran beteiligt sind nicht nur die eigentlichen Akteure, die solche Taten begehen, sondern auch alle jene, die den Mund halten, schweigen, filmen, Bildmaterial verbreiten – und natürlich die riesige Schar all jener, die sich daran aufgeilen.

KI revolutioniert die Fahndung

Seit 2024 hat sich die Situation dramatisch verändert. KI-Systeme können heute Missbrauchsdarstellungen mit einer Genauigkeit von über 99 Prozent erkennen – und das in Millisekunden. Tools wie Microsofts PhotoDNA haben sich zu vollwertigen KI-Detektoren entwickelt, die nicht nur bekannte Inhalte identifizieren, sondern auch neue Varianten und sogar KI-generierte Deepfakes erkennen.

Die EU-Kommission hat mit dem „Act to Combat Child Sexual Abuse“ (CSA-Verordnung) neue Standards geschaffen. Plattformen wie Meta, Google, Apple und TikTok setzen mittlerweile KI-basierte Scanning-Technologien ein – allerdings nur bei bereits gemeldeten Verdachtsfällen und nach richterlicher Anordnung.

Deutschland hinkt international hinterher

Während die USA und Großbritannien ihre Gesetze massiv verschärft haben, kämpft Deutschland weiterhin mit den Folgen der ausgesetzten Vorratsdatenspeicherung. Sebastian Fiedler vom Bund Deutscher Kriminalbeamter beklagt nach wie vor: „Selbst wenn uns konkrete Taten gemeldet werden: Wir kommen nicht weiter, weil uns die Daten fehlen.“

Dabei zeigen internationale Erfolge, was möglich ist: Das FBI konnte 2025 mit KI-Unterstützung das weltweit größte Kinderpornografie-Netzwerk „Operation Avalanche 2.0“ ausheben – über 15.000 Festnahmen in 67 Ländern. Deutschland war nur am Rande beteiligt, weil den Ermittlern die rechtlichen Werkzeuge fehlen.

Neue Technologien gegen alte Probleme

Spannend sind die Fortschritte bei der proaktiven Erkennung. Apples „NeuralHash“ und Googles „Content Safety API“ können verdächtige Inhalte bereits beim Upload erkennen, bevor sie überhaupt verbreitet werden. Diese Systeme arbeiten mit sogenannten „Perceptual Hashes“ – digitalen Fingerabdrücken, die auch bearbeitete oder komprimierte Versionen bekannter Missbrauchsdarstellungen identifizieren.

Besonders problematisch: KI-generierte Missbrauchsdarstellungen nehmen exponentiell zu. Deepfake-Technologie macht es möglich, aus harmlosen Kinderfotos explizite Inhalte zu erstellen. Hier setzt die neue Generation von KI-Detektoren an, die solche synthetischen Inhalte anhand von Artefakten und Inkonsistenzen erkennen können.

Datenschutz vs. Kinderschutz: Ein falscher Gegensatz

Die Debatte hat sich seit 2023 grundlegend gewandelt. Moderne Privacy-Preserving-Technologien wie „Homomorphic Encryption“ ermöglichen es, nach Missbrauchsdarstellungen zu suchen, ohne andere Inhalte preisgeben zu müssen. Apple demonstrierte das bereits 2021 mit seinem umstrittenen, aber technisch eleganten CSAM-Detection-System.

Das Bundeskriminalamt arbeitet seit 2024 mit der „Private Set Intersection“-Technologie: Dabei werden nur die Hashwerte bekannter Missbrauchsdarstellungen abgeglichen – ohne dass Provider oder Ermittler Zugriff auf andere Inhalte bekommen. Ein Kompromiss, der beiden Seiten entgegenkommt.

Internationale Zusammenarbeit wird entscheidend

Das neue „Global Partnership Against Child Sexual Exploitation Online“ verbindet seit 2025 Polizeibehörden in Echtzeit. Wird in einem Land verdächtiges Material gefunden, werden automatisch alle Partnerländer benachrichtigt – inklusive KI-generierter Fahndungshinweise.

Deutschland muss hier dringend nachziehen. Während Länder wie die Niederlande oder Kanada ihre Aufklärungsquoten bei Missbrauchsfällen auf über 60 Prozent steigern konnten, stagniert Deutschland bei mageren 15 Prozent. Der Grund: fehlende rechtliche Grundlagen und technische Ausstattung.

Was sich ändern muss

Experten fordern eine „Goldene Regel“ für den Kinderschutz im Netz: Bei Verdacht auf Missbrauchsdarstellungen müssen KI-Systeme automatisch aktiv werden – ähnlich wie Spam-Filter bei E-Mails. Das funktioniert bereits heute bei Terrorinhalten oder Urheberrechtsverletzungen.

Die Technologie ist da, die internationale Kooperation läuft – nur Deutschland bremst sich selbst aus. Es ist höchste Zeit, dass Kinderschutz Vorrang vor ideologischen Datenschutz-Debatten bekommt. Denn jeder Tag Verzögerung bedeutet neue Opfer.

[av_video src=’https://vimeo.com/430694809′ mobile_image=“ attachment=“ attachment_size=“ format=’16-9′ width=’16‘ height=’9′ conditional_play=“ av_uid=’av-5swmo9t‘]

Zuletzt aktualisiert am 28.02.2026