NetzDG-Bilanz: Was sieben Jahre Hate-Speech-Bekämpfung bewirkt haben

von | 05.10.2018 | Internet

Fast sieben Jahre nach der Einführung des Netzwerkdurchsetzungsgesetzes (NetzDG) ist es ruhig geworden um das umstrittene Gesetz. Zu ruhig? Die anfängliche Aufregung ist verflogen, doch Hass und Hetze sind nach wie vor ein Problem in den Sozialen Netzwerken. Zeit für eine ehrliche Bilanz: Was hat das NetzDG wirklich bewirkt – und was sind die Lehren für den Umgang mit Online-Plattformen heute?

Das Netzwerkdurchsetzungsgesetz (NetzDG) sollte 2017 dafür sorgen, dass Facebook, Twitter (heute X), YouTube und Co. schneller gegen „offensichtlich rechtswidrige“ Inhalte vorgehen. Die Plattformen bekamen klare Fristen: Offensichtlich strafbare Inhalte müssen binnen 24 Stunden entfernt werden, komplexere Fälle innerhalb von sieben Tagen. Bei Verstößen drohen Bußgelder bis zu 50 Millionen Euro.

Die große Löschkatastrophe blieb aus

Die Befürchtungen waren groß: Würden die Plattformen im Zweifel lieber zu viel als zu wenig löschen? Würde das „Overblocking“ legaler Meinungsäußerungen zur Regel? Nach sieben Jahren lässt sich sagen: Die große Löschkatastrophe blieb aus. Zwar gab es durchaus Fälle wie das temporär gesperrte Facebook-Konto der AfD-Politikerin Beatrix von Storch oder andere umstrittene Löschungen – aber nicht in der befürchteten Masse.

Die Transparenzberichte der Plattformen zeigen: Die meisten gemeldeten Inhalte werden nicht gelöscht. Bei Facebook etwa wurden 2025 nur etwa 15-20% der nach NetzDG gemeldeten Inhalte tatsächlich entfernt. Das deutet darauf hin, dass die Unternehmen nicht pauschal „im Zweifel löschen“, sondern durchaus differenziert bewerten.

Markus Beckedahl im Gespräch: Unternehmen wir genug gegen Hass, Hetze und Fake-News?

Das Transparenzproblem bleibt bestehen

Doch ein grundsätzliches Problem hat sich nicht gelöst: die fehlende Transparenz und demokratische Kontrolle. Nach wie vor entscheiden nicht Gerichte über die Rechtmäßigkeit von Inhalten, sondern private Unternehmen – genauer gesagt deren Content-Moderatoren, oft in Niedriglohnländern. Diese Privatisierung der Rechtsdurchsetzung war von Anfang an umstritten und bleibt es bis heute.

Nutzern fehlen oft effektive Beschwerdemöglichkeiten. Zwar haben die Plattformen ihre Widerspruchsverfahren ausgebaut, doch echte rechtsstaatliche Standards sind das nicht. Wer zu Unrecht gelöscht wird, hat kaum Chancen auf schnelle Abhilfe – es sei denn, der Fall wird medial aufgegriffen.

Die fehlende Abschreckung: Das Kernproblem

Das vielleicht größte Problem des NetzDG zeigt sich in seiner mangelnden Abschreckungswirkung. Wer Hass und Hetze verbreitet, muss im schlimmsten Fall damit rechnen, dass sein Beitrag gelöscht wird. Strafrechtliche Konsequenzen? Fehlanzeige. Das ist etwa so, als würde man Ladendiebstahl damit bekämpfen, dass man die gestohlenen Waren zurückbringt – ohne weitere Folgen.

Die Statistiken sprechen eine deutliche Sprache: Nur ein Bruchteil der nach NetzDG gelöschten Inhalte wird tatsächlich zur Strafanzeige gebracht. Die Staatsanwaltschaften sind überlastet, Ermittlungsverfahren im Netz komplex und zeitaufwendig. So entsteht ein rechtsfreier Raum, in dem Täter sich relativ sicher fühlen können.

Was hat sich seit 2017 geändert?

Immerhin: Das Bewusstsein für das Problem ist gestiegen. Die EU hat mit dem Digital Services Act (DSA) 2024 ein umfassenderes Regelwerk geschaffen, das über das deutsche NetzDG hinausgeht. Große Plattformen müssen nun systematisch gegen Desinformation und schädliche Inhalte vorgehen, nicht nur reaktiv löschen.

Auch technisch hat sich einiges getan: KI-gestützte Moderation kann heute besser zwischen problematischen und harmlosen Inhalten unterscheiden. Algorithmen erkennen Hassrede in verschiedenen Sprachen und auch in Bildern zuverlässiger. Dennoch bleiben Grenzfälle und Kontextabhängigkeit eine Herausforderung für automatisierte Systeme.

Lehren für die Zukunft

Das NetzDG war ein erster, durchaus wichtiger Schritt. Es hat gezeigt, dass sich Plattformen durchaus zu mehr Verantwortung bewegen lassen. Aber es hat auch die Grenzen eines rein löschbasierten Ansatzes aufgezeigt.

Für die Zukunft braucht es einen Mix aus verschiedenen Ansätzen: bessere technische Systeme zur Früherkennung, mehr Investitionen in die Strafverfolgung, aber auch präventive Maßnahmen wie Medienbildung und Aufklärung. Und vor allem: mehr demokratische Kontrolle über die Regeln, nach denen in unseren digitalen Öffentlichkeiten moderiert wird.

Das NetzDG war nicht die Lösung aller Probleme – aber es war ein notwendiger Anfang. Jetzt gilt es, die Lehren daraus zu ziehen und bessere, gerechtere Systeme zu entwickeln.

Zuletzt aktualisiert am 07.03.2026