Bekämpfung antisemitischer Postings mit KI

von | 17.11.2023 | Social Networks

TikTok, Instagram, Facebook und Co. quellen weiterhin über mit antisemitischen und antidemokratischen Postings. Künstliche Intelligenz wird zum wichtigsten Werkzeug im Kampf gegen Hass und Hetze im Netz.

Die Flut antisemitischer und antidemokratischer Inhalte in den Sozialen Netzwerken ist 2026 zu einem Dauerproblem geworden. Was nach dem Hamas-Angriff auf Israel begann, hat sich zu einer systematischen Herausforderung für Plattformen und Aufsichtsbehörden entwickelt. Es gibt praktisch kein Entkommen – auf allen Plattformen. Doch was tun gegen eindeutig antisemitische Postings? Wie lassen die sich erkennen und optimalerweise unterdrücken, blockieren, löschen?

Die Landesanstalt für Medien NRW hat unter anderem die Aufgabe, Rechtsverstöße in den Sozialen Medien zu ahnden. Und sie macht es auch – mittlerweile mit deutlich ausgereifteren KI-Systemen als noch vor drei Jahren. Mit Hilfe von Machine Learning und Large Language Models werden strafbare Postings aufgespürt, dann geprüft und gemeldet.

Facebook: Auf der Plattform werden viele Hassnachrichten geteilt - und geliket

KIVI 3.0: Evolution der KI-Überwachung

Die LfM NRW hat ihr ursprünglich 2023 gestartetes KIVI-System grundlegend weiterentwickelt. Das System – eine Kombination aus „KI“ und „vigilare“ (lateinisch für „wachsam sein“) – durchforstet mittlerweile täglich über 50.000 Webseiten und analysiert Millionen von Posts auf TikTok, Instagram, Facebook, X (ehemals Twitter), YouTube, Telegram und zunehmend auch auf neuen Plattformen wie BeReal oder Discord.

Die aktuelle Version KIVI 3.0 nutzt multimodale KI-Modelle, die nicht nur Text, sondern auch Bilder, Videos und Audio-Inhalte analysieren können. Besonders wichtig: Das System erkennt mittlerweile auch subtilere Formen von Antisemitismus und Hassrede – etwa durch Codes, Memes oder vermeintlich harmlose Symbole.

Das Besondere: KIVI lernt kontinuierlich dazu. Machine Learning-Algorithmen werden mit Feedback von Experten für Extremismus und Antisemitismus trainiert. Dadurch wird das System nicht nur schneller, sondern auch präziser bei der Erkennung problematischer Inhalte.

Antisemitische Postings: Die Nadel im Heuhaufen

Wie effektiv ist diese Maßnahme denn? Führen entdeckte Postings direkt zur Löschung?

Wenn KIVI etwas Auffälliges entdeckt, wird das weiterhin von Menschen geprüft – aber deutlich gezielter als früher. Die KI erstellt Relevanz-Scores und priorisiert besonders problematische Inhalte. Die Landesmedienanstalten haben nach eigenen Angaben 2025 über 15.000 antisemitische und antidemokratische Postings identifiziert und entsprechende Verfahren eingeleitet.

Dank des Digital Services Act (DSA) haben die Behörden seit 2024 mehr Durchschlagskraft: Plattformen müssen binnen 24 Stunden auf Meldungen reagieren und transparent über Löschungen berichten. Bei Verstößen drohen Bußgelder von bis zu sechs Prozent des weltweiten Jahresumsatzes.

Dennoch bleibt es ein Kampf gegen Windmühlen. Das Volumen sprengt jeden Rahmen – täglich entstehen Millionen neuer Posts. Doch das System der LfM zeigt, dass KI-Systeme eine wertvolle Hilfe sind. Vorteil von KI: Sie lernt dazu und wird mit der Zeit immer besser, treffsicherer.

Was unternehmen die Plattformen 2026?

Die Plattformen haben sich seit 2024 deutlich unterschiedlich entwickelt. Meta (Facebook, Instagram) hat massive Investitionen in KI-Moderation getätigt und arbeitet eng mit Fact-Checking-Organisationen zusammen. Das Unternehmen löscht mittlerweile über eine Million hasserfüllte Posts pro Woche – 95 Prozent davon automatisch durch KI.

TikTok hat nach jahrelanger Kritik sein Moderationssystem überarbeitet und nutzt jetzt fortschrittliche Computer-Vision-Algorithmen für Video-Inhalte. Besonders bei der Erkennung von Hate-Speech in verschiedenen Sprachen hat die Plattform aufgeholt.

X (ehemals Twitter) unter Elon Musk bleibt problematisch. Zwar wurden wieder mehr Moderatoren eingestellt, aber die Plattform kämpft weiterhin mit ihrer „Free Speech Absolutism“-Politik. Viele problematische Accounts, die früher gesperrt waren, sind wieder aktiv.

YouTube setzt auf Community-Moderation: Trusted Flagger-Programme und Nutzer-Meldungen werden durch KI priorisiert und schneller bearbeitet. Telegram bleibt der Wilde Westen – hier gibt es nach wie vor praktisch keine proaktive Moderation.

Neue Herausforderungen: Deepfakes und KI-generierte Hetze

Ein neues Problem ist 2026 hinzugekommen: KI-generierte antisemitische Inhalte. Deepfake-Videos, die jüdische Persönlichkeiten diskreditieren sollen, oder durch ChatGPT-ähnliche Systeme generierte Hassreden werden zur neuen Normalität.

Dagegen helfen nur KI-Systeme, die andere KI-Inhalte erkennen können – ein technologisches Wettrüsten. Die LfM NRW testet bereits Watermarking-Technologien und KI-Detection-Tools, um diesem Problem zu begegnen.

Realitätscheck: Ein Kampf ohne Sieger?

Gibt es eine realistische Aussicht auf Plattformen, die frei von antisemitischen und antidemokratischen Inhalten sind?

Klare Antwort: Nein, aber die Situation hat sich verbessert. Durch bessere KI, schärfere Gesetze und mehr gesellschaftlichen Druck reagieren Plattformen schneller und konsequenter. Der Digital Services Act hat echte Zähne gezeigt – mehrere Plattformen mussten bereits Millionenbußgelder zahlen.

Das grundsätzliche Problem bleibt: Jeder kann mehr oder weniger anonym Inhalte veröffentlichen. Wer das ändern möchte, muss Einschränkungen bei der Anonymität akzeptieren – und das will kaum jemand.

Die Lösung liegt in einem Mix: Bessere KI-Moderation, schärfere Gesetze, gesellschaftlicher Druck und aktive Nutzer, die problematische Inhalte melden. Jeder einzelne kann helfen: Auffällige Beiträge konsequent melden, damit sie zeitnah blockiert und gelöscht werden. Denn auch 2026 gilt: Das Netz ist nur so gut wie die Menschen, die es nutzen.

Zuletzt aktualisiert am 17.02.2026