Das Netzwerkdurchsetzungsgesetz (NetzDG): Eine Bilanz nach acht Jahren

von | 02.10.2018 | Digital

Mit dem Netzwerkdurchsetzungsgesetz (NetzDG) sollte Deutschland Vorreiter bei der Bekämpfung von Hass und Hetze im Netz werden. Fast acht Jahre nach dem Start zeigt sich: Das Gesetz hat zwar Bewegung in die Debatte gebracht, aber die großen Probleme bestehen weiter. Neue Gesetze wie der Digital Services Act der EU und KI-basierte Moderationssysteme haben den Ansatz längst überholt.

Am 1. Oktober 2017 ist das „Netzwerkdurchsetzungsgesetz“ (NetzDG) offiziell gestartet. Die großen Anbieter müssen seitdem Postings überwachen und Hass und Hetze innerhalb von 24 Stunden löschen. Fast acht Jahre später zeigt sich: Der deutsche Alleingang war nur bedingt erfolgreich – und wurde mittlerweile von EU-weiten Regelungen abgelöst.

Was das NetzDG bewirkt hat – und was nicht

Zweifellos wurde erreicht, dass sich vor allem Meta (ehemals Facebook), YouTube und Twitter/X nicht mehr vollständig vor ihrer Verantwortung drücken können. Alle großen Plattformen haben mittlerweile Löschzentren eingerichtet, auch in Deutschland. Heerscharen von Content-Moderatoren sind dafür verantwortlich, problematische Inhalte zu identifizieren und zu entfernen.

Die Zahlen der Transparenzberichte zeigen: Millionen von Posts werden inzwischen geprüft und gelöscht. Allein Meta entfernte 2025 über 30 Millionen Inhalte wegen Hassrede – ein Vielfaches der Zahlen von 2017. Doch trotzdem: Zufriedenstellende Ergebnisse hat das NetzDG allein nicht gebracht. Es wird immer noch ausgiebig gepöbelt, gemobbt und gehetzt in den Netzwerken.

Das liegt an einem fundamentalen Problem: Das Internet funktioniert dezentral und grenzüberschreitend. Während auf etablierten Plattformen mehr moderiert wird, sind hasserfüllte Communities einfach zu Telegram, Discord oder in geschlossene Gruppen abgewandert. Dort herrscht oft völlige Moderation – oder bewusst gar keine.

Ein Jahr NetzDG: „Eine Gaga-Vorschrift“ – Talk auf WDR5 im Morgenecho

KI-Moderation: Fluch und Segen zugleich

Ein großer Wandel seit 2017: Künstliche Intelligenz übernimmt heute den Großteil der Content-Moderation. Während früher hauptsächlich menschliche Moderatoren Inhalte prüften, analysieren heute KI-Systeme Millionen von Posts in Sekundenbruchteilen. Das ist effizienter – aber auch fehleranfälliger.

Immer wieder werden Beiträge gelöscht, die nicht gelöscht gehören. Künstlerische Projekte, Satirebeiträge oder sogar wissenschaftliche Diskussionen fallen den automatisierten Systemen zum Opfer. Das zeigt: Wenn man Algorithmen solche komplexen Entscheidungen überlässt, entstehen neue Probleme.

Besonders problematisch: Die KI-Systeme sind oft auf englischsprachige Trainingsdaten ausgelegt. Deutsche Ironie, Satire oder kulturelle Bezüge verstehen sie häufig nicht. Das führt zu einer Verzerrung, die deutsche Nutzer benachteiligt.

Der Digital Services Act: Das NetzDG 2.0

Seit 2024 gilt EU-weit der Digital Services Act (DSA) – quasi das NetzDG auf europäischer Ebene, nur viel umfassender. Sehr große Online-Plattformen müssen jetzt nicht nur Hassrede bekämpfen, sondern auch Desinformation, Manipulation und andere schädliche Inhalte. Die Strafen sind mit bis zu sechs Prozent des weltweiten Jahresumsatzes deutlich schärfer als die 50 Millionen Euro des NetzDG.

Der DSA bringt einige Verbesserungen mit sich: Nutzer haben bessere Beschwerdemöglichkeiten, die Transparenzanforderungen sind strenger und die Plattformen müssen ihre Algorithmen offenlegen. Trotzdem bleiben die grundsätzlichen Probleme bestehen.

Die eigentlichen Herausforderungen

Das größte Problem ist nicht die mangelnde Löschung von Hasspostings – es ist die gesellschaftliche Spaltung, die zu diesem Hass führt. Gesetze können Symptome bekämpfen, aber nicht die Ursachen heilen. Wenn Menschen frustriert, ausgegrenzt oder radikalisiert sind, finden sie immer Wege, dies auszudrücken.

Dazu kommt: Die Anonymität im Netz begünstigt respektlosen Umgang. Wer keine Konsequenzen für sein Verhalten befürchten muss, verhält sich anders. Diskussionen über Klarnamenpflicht scheitern aber regelmäßig an Datenschutzbedenken – zu Recht.

Ein weiteres Problem: Staatliche Zensur. Was heute als „Hassrede“ gilt, kann morgen als legitime Kritik eingestuft werden – und umgekehrt. Die Grenzen sind fließend und kulturell geprägt. Ein Gesetz, das heute gegen Rechtsextremismus eingesetzt wird, könnte morgen missbraucht werden.

Ausblick: Was funktionieren könnte

Statt auf Verbote zu setzen, brauchen wir positive Ansätze: Bessere digitale Bildung, Förderung konstruktiver Diskussionskultur und Stärkung vertrauensvoller Medien. Plattformen könnten Nutzer belohnen, die zu sachlichen Diskussionen beitragen, statt nur die zu bestrafen, die hetzen.

Technisch gibt es interessante Ansätze: Algorithmen, die nicht nur schädliche Inhalte erkennen, sondern auch konstruktive Diskussionen fördern. Community-Notes-Systeme wie bei X, wo Nutzer selbst Kontext zu strittigen Posts hinzufügen können. Oder dezentrale Moderation, bei der verschiedene Communities ihre eigenen Standards durchsetzen.

Fazit: Das NetzDG war ein wichtiger erster Schritt, aber längst nicht die Lösung. Die Probleme von Hass und Hetze im Netz sind komplex und brauchen differenzierte Antworten – keine einfachen Verbote.

Zuletzt aktualisiert am 07.03.2026