Mit KI gegen Jugendschutzverstöße

Mit KI gegen Jugendschutzverstöße

Die Landesanstalt für Medien NRW sucht mit Hilfe von Künstlicher Intelligenz nach Inhalten im Netz, die gegen geltendes Jugendschutzrecht verstoßen oder politischen Extremismus enthalten. Die KI-Anwendung wurde in Düsseldorf entwickelt – und wird nun bundesweit eingesetzt.

Das Netz ist voll mit Inhalten, die problematisch oder sogar rechtswidrig sein können. Um strafrechtlich relevante Inhalte kümmern sich in der Regel Polizei und Staatsanwaltschaften.

Doch auch die Landesmedienanstalten haben eine Aufsichtsfunktion im Netz. Sie wachen darüber, dass geltendes Recht eingehalten und umgesetzt wird. Das gilt insbesondere für Kinder- und Jugendschutz sowie politischen Extremismus.

KI-Lösung auf Düsseldorf namens „Kivi“

Keine einfache Aufgabe. Die schiere Menge an Webseiten, Foren, Plattformen und Apps mit all den Texten, Fotos und Videos macht eine effektive Aufsicht nahezu unmöglich. Deshalb hat die Landesanstalt für Medien NRW mit Sitz in Düsseldorf gemeinsam mit einem privaten Softwareunternehmen seit Ende 2020 eine eigene KI-Lösung entwickelt, die beim „Monitoring“ (Überwachen) der Inhalte helfen soll.

Mit Hilfe von Künstlicher Intelligenz schneller problematische Inhalte finden und effizienter die einzelnen Fälle bearbeiten, das war die Aufgabenstellung. Jetzt ist das KI-System mit Namen „Kivi“ (aus „KI“ und „Vigilante“, lateinisch für „Wachen“) fertig.

Dr. Tobias Schmid von der LfM NRW hat die KI entwickeln lassen

Dr. Tobias Schmid von der LfM NRW hat die KI entwickeln lassen

Schwerpunkt sind Pornografie und Gewaltverherrlichung

Die KI-System durchforsten nahezu rund um die Ihr die Angebote im Netz und sammelt mögliche Rechtsverstöße. Die Mitarbeiter der Landesanstalt für Medien bekommen die Fundstücke präsentiert, etwa Pornografie, Aufnahmen mit roher Gewalt oder Fotos, die verfassungsfeindliche Symbole enthalten.

Anschließend fällt eine Entscheidung, ob es sich tatsächlich um einen Rechtsverstoß handelt oder nicht. Mit jeder dieser Entscheidung lernt das KI-System dazu – und wird dadurch besser (geringere Fehlerquote).

Um die Menschen, die sich die Fundstücke zwecks Kontrolle anschauen müssen zu entlasten, erscheinen Fotos standardmäßig erst einmal verwaschen (künstliche Unschärfe).

Der Sinn: Die Mitarbeiter sollen nicht die ganze Zeit Fotos mit Gewalt und Pornografie konfrontiert werden. Mit einem Schieberegler lässt sich das Foto bei Bedarf nach und nach schärfen, um die nötige Entscheidung fällen zu können. 

Auch Microsoft setzt KI ein - gegen Kinderpornografie

Auch Microsoft setzt KI ein – vor allem gegen Kinderpornografie

Verbesserte Übersicht über Verstöße

Mit der KI-Anwendung erhalte man „eine bessere Übersicht über die Verstöße“, erklärt der Direktor der Landesanstalt für Medien NRW, Tobias Schmid. Etwas Vergleichbares gibt es europaweit nicht.

Seit Anfang April nutzen aber auch alle anderen Landesmedienanstalten das Werkzeug. Was die Arbeit vereinfacht, weil sich die einzelnen Landesanstalten die Fälle nun über das KI-Tool gegenseitig zuständigungshalber zusenden können.

Schon jetzt kann die Landesmedienanstalt NRW täglich mehr als 10.000 Seiten/Angebot mit Hilfe des KI-Werkzeugs automatisch auf Rechtsverstöße überprüfen. Laut Laura Braam, die für das Tool zuständig ist, hat sich durch den Einsatz der KI die Anzahl der Anzeigen mehr als verdoppelt, auf rund 30 Anzeigen pro Monat. 

Zusammenarbeit mit anderen Behörden

 Stoßen die Mitarbeiter bei ihrer Arbeit auf Inhalte, die strafrechtlich relevant sind – etwa Aufnahmen sexualisierter Gewalt an Kindern –, reicht die Behörde die Fälle an LKA, BKA oder Staatsanwaltschaften weiter.

Noch auf klassischem Weg. Doch künftig wären Schnittstellen zwischen den Systemen der verschiedenen Behörden möglich. Genau deswegen eignet sich das in der Landesanstalt für Medien NRW entwickelte System auch als Prototyp für künftige europaweite Lösungen.