NetzDG nach 8 Jahren: Warum Deutschlands Lösch-Gesetz gescheitert ist

von | 18.01.2018 | Internet

Seit 2018 sorgt das Netzwerkdurchsetzungsgesetz (NetzDG) für kontroverse Diskussionen. Große soziale Netzwerke wie Meta (Facebook/Instagram), X (ehemals Twitter), YouTube und TikTok müssen „offensichtlich rechtswidrige“ Inhalte binnen 24 Stunden löschen. Bei komplexeren Fällen bleiben sieben Tage. Verstöße können Bußgelder bis zu 50 Millionen Euro nach sich ziehen. Das Resultat: Die Plattformen löschen lieber zu viel als zu wenig – mit absurden Folgen.

Das NetzDG sollte ursprünglich gegen Hatespeech vorgehen. In der Praxis werden jedoch oft völlig harmlose oder satirische Inhalte gelöscht. Die Beispiele sind mittlerweile Legion.

So wurde 2018 sogar Bundesjustizminister Heiko Maas selbst zum Opfer seines eigenen Gesetzes: Ein alter Tweet, in dem er Thilo Sarrazin als „Idioten“ bezeichnete, fiel der automatisierten Löschung zum Opfer. Die Ironie war perfekt.

Wenn KI über Satire entscheidet

Besonders problematisch wird es bei satirischen Inhalten. Das Magazin Titanic erlebte 2018 eine Kontosperrung, weil es sich über die Löschung eines AfD-Tweets lustig machte. Heute, acht Jahre später, hat sich das Problem massiv verschärft. Die Plattformen setzen verstärkt auf KI-basierte Moderationssysteme, die Ironie, Sarkasmus und satirische Übertreibung nicht verstehen.

X (Twitter) unter Elon Musk hat zwar die Content-Moderation drastisch reduziert, muss aber dennoch dem deutschen Recht folgen. Meta hingegen setzt auf eine Kombination aus KI und menschlichen Moderatoren, die oft in anderen Ländern sitzen und kulturelle Kontexte nicht verstehen.

https://platform.twitter.com/widgets.js

Das Überblocking-Problem wird größer

Auch heute noch erwischt es regelmäßig völlig harmlose Inhalte. Journalisten berichten von gelöschten Recherchen, Künstler von zensierten Werken, Aktivisten von gesperrten Aufklärungskampagnen. Das Problem: Wer keinen prominenten Namen hat, bekommt seine Inhalte meist nicht zurück.

Besonders betroffen sind marginalisierte Communities, deren Inhalte häufiger als „problematisch“ eingestuft werden. LGBTQ+-Aufklärung, feministische Inhalte oder antifaschistische Bildungsarbeit fallen regelmäßig der Überlöschung zum Opfer.

EU-weite Verschärfung durch den DSA

Seit 2024 verschärft der EU-weite Digital Services Act (DSA) die Situation zusätzlich. Sehr große Online-Plattformen müssen nun noch striktere Auflagen erfüllen. Das führt zu einem regelrechten Compliance-Overkill: Lieber hundertmal zu viel löschen als einmal eine Millionenstrafe riskieren.

Die Plattformen investieren Milliarden in Moderationssysteme, doch die Fehlerquote bleibt hoch. Meta beschäftigt mittlerweile über 40.000 Content-Moderatoren weltweit, YouTube setzt auf eine Mischung aus KI und menschlicher Überprüfung. Trotzdem: Die Systeme verstehen Kontext, Ironie und kulturelle Eigenarten nicht.

geralt / Pixabay

Meinungsfreiheit vs. Rechtsstaat

„Meinungsfreiheit“ ist ein kompliziertes Gut. Sie ist nicht grenzenlos – das ist richtig. Aber sie sollte auch nicht von Algorithmen interpretiert werden, die keine Nuancen verstehen. Echte Hetze, Beleidigungen und Volksverhetzung gehören verfolgt – aber von Staatsanwälten und Richtern, nicht von Tech-Konzernen.

Das Problem verschärft sich durch die Intransparenz der Systeme. Nutzer erfahren oft nicht einmal, warum ihre Inhalte gelöscht wurden. Einspruchsverfahren sind langwierig und häufig erfolglos.

Alternativen und Lösungsansätze

Experten fordern längst eine Reform. Statt pauschaler 24-Stunden-Fristen braucht es differenzierte Verfahren. Wirklich offensichtliche Fälle – wie Terrorpropaganda oder Kindesmissbrauch – können schnell gelöscht werden. Für alles andere sollten rechtsstaatliche Verfahren greifen.

Einige Vorschläge aus der Diskussion:

  • Unabhängige Schiedsstellen statt Plattform-eigener Entscheidungen
  • Transparenzpflichten bei automatisierter Moderation
  • Schnelle Einspruchsverfahren mit menschlicher Überprüfung
  • Klarnamenpflicht in bestimmten Bereichen zur besseren Verfolgung

Bilanz nach acht Jahren

Das NetzDG hat sein Ziel verfehlt. Echte Hetze wird weiterhin verbreitet, während harmlose Meinungsäußerungen gelöscht werden. Die großen Plattformen haben sich arrangiert – auf Kosten der Nutzer. Kleinere Anbieter können sich den Moderationsaufwand oft gar nicht leisten und meiden den deutschen Markt.

Die nächste Bundesregierung muss hier nachbessern. Digitalisierung braucht durchdachte Regeln, keine Schnellschüsse. Das NetzDG war gut gemeint – aber schlecht gemacht. Zeit für einen Neuanfang mit mehr Augenmaß und weniger Aktionismus.

Zuletzt aktualisiert am 30.03.2026