Live-Videos: Ein Schlupfloch im NetzDG

von | 14.10.2019 | Digital

Plattformen sind heute durch das Netzwerkdurchsetzungsgesetz (NetzDG) und den Digital Services Act (DSA) dazu verpflichtet, straftrechtlich relevante Inhalte nach Kenntnis zu löschen. Dazu haben sie 24 Stunden Zeit. Das Problem: Live-Videos werden auf diese Weise praktisch nie rechtzeitig blockiert – und das wird 2026 zu einem immer größeren Problem.

Ein schwieriges Thema: Wie lässt sich erreichen, dass Live-Videos inhaltlich in Ordnung sind? Anders als hochgeladene Videos, die danach online gehen, lassen sich Live-Videos nicht wirklich auf problematische oder gar kriminelle Inhalte prüfen. Selbst moderne KI-Systeme wie GPT-4 Vision oder Googles Gemini sind derzeit überfordert: Sie können zum Beispiel mitunter gewalttätige Videospiele nicht sicher von realen Gewaltdarstellungen unterscheiden.

Das Problem hat sich 2025 und 2026 dramatisch verschärft. Live-Streaming boomt mehr denn je – auf TikTok Live, Instagram Live, YouTube Live, Twitch und neuen Plattformen wie BeReal Live oder dem aufstrebenden Discord Stage. Gleichzeitig werden Live-Streams immer häufiger für problematische Inhalte missbraucht: Von Hassrede über Cybermobbing bis hin zu kriminellen Aktivitäten.

Ich habe mit dem auf Internetthemen spezialisierten Anwalt Christian Solmecke über das Thema gesprochen. Er hat mir erklärt: Plattformen sind zuständig – haben aber eben 24 Stunden Zeit, auf Videos mit kriminellen Inhalten zu reagieren. Eine Menge Zeit. Ausreichend Zeit jedenfalls, solche Videos dann zu kopieren – und sie verbreiten sich wirklich rasant im Netz.

[av_video src=’https://www.youtube.com/watch?v=rA6xz596K9w‘ format=’16-9′ width=’16‘ height=’9′ custom_class=“ av_uid=’av-95muwux‘]

Neue Technologien, alte Probleme

Die Plattformen rüsten technisch auf. Meta (Facebook/Instagram) setzt seit 2025 auf fortgeschrittene Computer Vision-Algorithmen, die Live-Inhalte in Echtzeit scannen. YouTube hat sein „Live Chat Moderation“ System mit KI-basierten Content-Filtern erweitert. TikTok experimentiert mit „Predictive Moderation“ – einem System, das bereits vor dem Stream das Risiko problematischer Inhalte einschätzt.

Doch die Realität sieht anders aus: Die Systeme produzieren massenhaft False Positives und blockieren harmlose Inhalte, während wirklich problematische Streams durchrutschen. Ein Gaming-Stream mit Ego-Shooter kann gesperrt werden, während subtilere Formen von Hassrede oder Manipulation unentdeckt bleiben.

Der Teufelskreis der Verbreitung

Zwar betreiben die Plattformen mittlerweile einen gewissen Aufwand, um die schneeballartige Verbreitung auszubremsen – allerdings gelingt das nicht, wie wir täglich sehen. Problematische Live-Inhalte werden binnen Minuten auf Telegram-Kanäle, Discord-Server oder in private WhatsApp-Gruppen weitergeleitet.

Besonders perfide: Bots erkennen automatisch, wenn ein Live-Stream viral geht oder kontrovers diskutiert wird. Sie laden die Inhalte herunter und verteilen sie über Dutzende von Backup-Accounts und alternativen Plattformen. Bis die Originalquelle gesperrt ist, existieren bereits hunderte Kopien.

Was sich 2026 ändert – und was nicht

Der EU Digital Services Act verschärft seit 2025 die Regeln für große Online-Plattformen. Sie müssen transparenter über ihre Moderationsprozesse berichten und bekommen härtere Strafen bei Verstößen. Doch auch hier gilt: Live-Content bleibt das Sorgenkind.

Einige Plattformen testen radikalere Ansätze. Twitch führt 2026 eine „Trust-Score“ für Streamer ein – wer problematische Inhalte produziert hat, darf nur noch mit Verzögerung streamen. Instagram testet Community-basierte Live-Moderation, bei der erfahrene Nutzer in Echtzeit problematische Streams melden können.

Ausblick: Prävention statt Reaktion

Die Lösung liegt wahrscheinlich nicht in besserer Erkennung, sondern in Prävention. Plattformen setzen zunehmend auf Account-Verifizierung, begrenzen Live-Funktionen für neue Nutzer und arbeiten mit Verhaltensmustern. Wer nachts um 3 Uhr zum ersten Mal einen Live-Stream startet und dabei aggressive Sprache verwendet, wird automatisch stärker überwacht.

Trotzdem bleibt ein Dilemma: Je strenger die Kontrollen, desto mehr legitimate Inhalte werden fälschlicherweise blockiert. Und je lockerer die Regeln, desto mehr problematische Inhalte schlüpfen durch. Ein Balanceakt, der auch 2026 nicht gelöst ist – und vielleicht nie vollständig gelöst werden kann.

Zuletzt aktualisiert am 03.03.2026