Beleidigungen – im Netz leider keine Seltenheit, sondern ein immer häufigeres Phänomen. Aber wie damit umgehen? Während deutsche Gerichte noch vor wenigen Jahren fragwürdige Urteile fällten, hat der Europäische Gerichtshof die Rechte all jener gestärkt, denen im Netz übel mitgespielt wird. Und die Entwicklung geht weiter.
Der Europäische Gerichtshof (EuGH) hat bereits 2019 eine wegweisende Entscheidung gefällt, die bis heute nachwirkt: Soziale Netzwerke müssen aktiv nach wortgleichen und ähnlichen rechtswidrigen Beleidigungen suchen – und im Zweifel weltweit löschen – wenn ihnen davon Mitteilung gemacht wird. Diese Rechtsprechung hat die digitale Landschaft nachhaltig verändert.

Von EuGH-Urteil zum Digital Services Act
Was damals revolutionär klang, ist heute Realität geworden. Das EuGH-Urteil von 2019 war nur der Anfang einer grundlegenden Wende im Umgang mit Online-Hetze. Mit dem Digital Services Act (DSA), der seit Februar 2024 vollständig in Kraft ist, haben die EU-Gesetzgeber noch schärfere Waffen geschaffen.
Der DSA verpflichtet große Plattformen wie Meta (Facebook, Instagram), X (ehemals Twitter), TikTok und YouTube zu deutlich mehr Transparenz und Verantwortung. Besonders große Plattformen mit über 45 Millionen Nutzern in der EU müssen ihre Moderationsrichtlinien offenlegen und regelmäßig über gelöschte Inhalte berichten.
Die Luxemburger Richter haben damals entschieden, dass Facebook und Co. im Zweifel nicht nur konkret gemeldete Beleidigungen im Netzwerk löschen müssen – das ist nun mal Gesetz! -, sondern auch aktiv nach ähnlichen oder gleichlautenden Beleidigungen suchen müssen.

KI-gestützte Moderation wird Standard
Was vor Jahren noch utopisch erschien, ist heute technische Realität: Die großen Plattformen setzen massiv auf KI-gestützte Content-Moderation. Meta beispielsweise nutzt seit 2023 fortgeschrittene Large Language Models, die nicht nur wortgleiche Beleidigungen erkennen, sondern auch Varianten, Umschreibungen und sogar kontextuelle Anspielungen.
X (Twitter) hat unter Elon Musk zwar zunächst viele Moderatoren entlassen, musste aber aufgrund des DSA wieder aufrüsten. Die Plattform verwendet mittlerweile ebenfalls KI-Systeme, die verdächtige Inhalte automatisch markieren oder entfernen.
TikTok geht noch einen Schritt weiter: Die Plattform scannt nicht nur Texte, sondern analysiert auch Audio- und Videoinhalte auf problematische Aussagen. Selbst subtile Andeutungen oder verschleierte Beleidigungen werden erkannt.
Neue Rechte für Betroffene
Wer heute Diffamierungen in den Sozialen Netzwerken erfährt, hat deutlich bessere Chancen sich zu wehren als noch vor wenigen Jahren. Der DSA gibt Nutzern das Recht auf:
- Schnelle Reaktion: Plattformen müssen innerhalb von 24 Stunden auf Meldungen reagieren
- Transparenz: Ihr bekommt eine ausführliche Begründung, wenn Inhalte nicht gelöscht werden
- Widerspruch: Entscheidungen lassen sich über unabhängige Beschwerdestellen anfechten
- Proaktive Suche: Plattformen müssen automatisch nach ähnlichen Inhalten suchen
Das bedeutet sehr viel mehr Aufwand für Meta, X und Co. Aber die Unternehmen haben mittlerweile massiv in automatisierte Systeme investiert. Meta beschäftigt weltweit über 40.000 Menschen in der Content-Moderation – Tendenz steigend.
Deutschland verschärft zusätzlich
Neben den EU-weiten Regelungen hat Deutschland mit der Novelle des Netzwerkdurchsetzungsgesetzes (NetzDG) 2024 noch nachgelegt. Plattformen müssen jetzt auch bei „struktureller Diskriminierung“ eingreifen – also wenn sich Hasswellen gegen bestimmte Gruppen richten.
Besonders interessant: Das neue Gesetz führt ein „Right to Reply“ ein. Wer zu Unrecht angegriffen wird, kann verlangen, dass seine Richtigstellung genauso prominent platziert wird wie der ursprüngliche Angriff.
Grenzen der Automatisierung
Trotz aller technischen Fortschritte bleiben Herausforderungen. KI-Systeme haben noch immer Probleme mit:
– Ironie und Sarkasmus
– Kulturellen Kontexten
– Mehrdeutigen Aussagen
– Neuen Umgehungsstrategien
Deshalb setzen alle großen Plattformen auf hybride Ansätze: KI macht die Vorarbeit, Menschen entscheiden in Zweifelsfällen.
Facebook blockiert nicht mal Holocaust-Leugner
Ausblick: Was kommt noch?
Die EU arbeitet bereits an weiteren Verschärfungen. Geplant sind:
– Realtime-Monitoring besonders toxischer Accounts
– KI-gestützte Präventionssysteme, die Eskalationen vorhersagen
– Grenzüberschreitende Zusammenarbeit der Aufsichtsbehörden
– Härtere Strafen für wiederholte Verstöße
Für 2026 ist außerdem eine große Evaluierung des DSA geplant. Experten erwarten weitere Verschärfungen, besonders im Bereich der automatisierten Erkennung.
Das Fazit: Was mit dem EuGH-Urteil 2019 begann, hat eine Lawine ausgelöst. Online-Hetze wird es weiterhin geben, aber die Werkzeuge dagegen werden immer schärfer. Und das ist auch gut so.
Zuletzt aktualisiert am 03.03.2026