Die Landesanstalt für Medien NRW setzt seit 2022 erfolgreich KI gegen Jugendschutzverstöße ein. Das System „Kivi“ durchforstet täglich über 20.000 Online-Inhalte und hat die Erkennungsrate problematischer Inhalte um 300% gesteigert. Mittlerweile nutzen alle deutschen Landesmedienanstalten die Technologie.
Das Internet quillt über vor problematischen Inhalten – von Pornografie über Gewaltverherrlichung bis hin zu extremistischer Propaganda. Während sich Polizei und Staatsanwaltschaften um strafrechtlich relevante Fälle kümmern, haben auch die Landesmedienanstalten eine wichtige Aufsichtsfunktion. Sie wachen darüber, dass geltendes Recht eingehalten wird – besonders beim Jugendschutz und bei politischem Extremismus.
„Kivi“ – Die KI-Revolution aus Düsseldorf
Die schiere Menge an Webseiten, Social-Media-Plattformen, Streaming-Diensten und Apps macht eine effektive manuelle Überwachung praktisch unmöglich. Deshalb entwickelte die Landesanstalt für Medien NRW ab Ende 2020 gemeinsam mit Technologiepartnern eine bahnbrechende KI-Lösung: Das System „Kivi“ (aus „KI“ und „Vigilante“, lateinisch für „Wachen“).
Seit dem produktiven Einsatz 2022 hat sich Kivi als Game-Changer erwiesen. Die KI analysiert mittlerweile täglich über 20.000 Online-Angebote – eine Vervierfachung gegenüber den ursprünglichen 5.000 Seiten. Dabei nutzt das System fortschrittliche Machine-Learning-Algorithmen und Computer Vision, um verdächtige Inhalte zu identifizieren.
Dr. Tobias Schmid von der LfM NRW hat die KI entwickeln lassen
Erweiterte Erkennungsfähigkeiten dank modernster Technologie
Kivi konzentriert sich auf verschiedene Problemfelder: Pornografie, Gewaltverherrlichung, verfassungsfeindliche Symbole, aber auch neuere Phänomene wie Deepfakes, KI-generierte problematische Inhalte und subtile Formen von Online-Radikalisierung. Die KI durchforstet rund um die Uhr das Netz und sammelt potenzielle Rechtsverstöße.
Die gefundenen Inhalte werden den Mitarbeitern der Landesanstalt präsentiert – allerdings mit einem cleveren Schutzfilter: Problematische Bilder und Videos erscheinen standardmäßig unscharf. Mit einem Schieberegler können die Prüfer die Inhalte bei Bedarf nach und nach schärfen. Diese Funktion schützt die Mitarbeiter vor der psychischen Belastung durch ständige Konfrontation mit verstörenden Inhalten.
Jede Entscheidung der menschlichen Prüfer fließt zurück ins System – ein kontinuierlicher Lernprozess, der die Trefferquote stetig verbessert. Die Falsch-Positiv-Rate konnte seit 2022 um über 60% reduziert werden.
Auch Microsoft setzt KI ein – vor allem gegen Kinderpornografie
Bundesweiter Erfolg und internationale Anerkennung
„Wir haben eine deutlich bessere Übersicht über die Verstöße erhalten“, erklärt Tobias Schmid, Direktor der Landesanstalt für Medien NRW. Der Erfolg spricht für sich: Seit April 2022 nutzen alle 14 deutschen Landesmedienanstalten das Werkzeug. Die Anzahl der Anzeigen hat sich mehr als verdreifacht – von ursprünglich 10 auf über 90 pro Monat allein in NRW.
Europaweit gibt es nichts Vergleichbares. Das macht Kivi zum Vorreiter einer neuen Generation von Jugendschutz-Technologie. Die EU-Kommission hat bereits Interesse an einer europaweiten Implementierung signalisiert, besonders im Kontext des Digital Services Act.
Die Zusammenarbeit zwischen den Landesanstalten funktioniert nahtlos: Fälle können über das KI-Tool direkt an die zuständige Behörde weitergeleitet werden. Das verkürzt Bearbeitungszeiten erheblich und verhindert doppelte Arbeit.
Vernetzung mit Strafverfolgungsbehörden
Bei strafrechtlich relevanten Inhalten – etwa Aufnahmen sexualisierter Gewalt an Kindern oder terroristische Propaganda – arbeitet Kivi bereits mit automatisierten Weiterleitungen an LKA, BKA und Staatsanwaltschaften. Seit 2025 sind direkte API-Schnittstellen zu den Systemen verschiedener Behörden aktiv.
Diese Vernetzung macht das System zum Prototyp für künftige europaweite Lösungen. Gespräche mit Partnerbehörden in Frankreich, den Niederlanden und Österreich laufen bereits.
Ausblick: KI gegen neue Bedrohungen
Für 2026 plant die Landesanstalt weitere Upgrades: Erweiterte Spracherkennung für problematische Audio-Inhalte in Podcasts und Livestreams, sowie spezialisierte Module zur Erkennung von KI-generierten Fake-Inhalten. Auch die Integration von Blockchain-Technologie zur fälschungssicheren Dokumentation von Verstößen steht auf der Roadmap.
Kivi beweist: Der Kampf um einen sichereren digitalen Raum lässt sich mit intelligenter Technologie deutlich effektiver führen – ohne dabei die menschliche Kontrolle aus der Hand zu geben.
Zuletzt aktualisiert am 22.02.2026
