Plattformen sind heute durch das Netzwerkdurchsetzungsgesetz (NetzDG) und den Digital Services Act (DSA) dazu verpflichtet, straftrechtlich relevante Inhalte nach Kenntnis zu löschen. Dazu haben sie 24 Stunden Zeit. Das Problem: Live-Videos werden auf diese Weise praktisch nie rechtzeitig blockiert – und das wird 2026 zu einem immer größeren Problem.
Ein schwieriges Thema: Wie lässt sich erreichen, dass Live-Videos inhaltlich in Ordnung sind? Anders als hochgeladene Videos, die danach online gehen, lassen sich Live-Videos nicht wirklich auf problematische oder gar kriminelle Inhalte prüfen. Selbst moderne KI-Systeme wie GPT-4 Vision oder Googles Gemini sind derzeit überfordert: Sie können zum Beispiel mitunter gewalttätige Videospiele nicht sicher von realen Gewaltdarstellungen unterscheiden.
Das Problem hat sich 2025 und 2026 dramatisch verschärft. Live-Streaming boomt mehr denn je – auf TikTok Live, Instagram Live, YouTube Live, Twitch und neuen Plattformen wie BeReal Live oder dem aufstrebenden Discord Stage. Gleichzeitig werden Live-Streams immer häufiger für problematische Inhalte missbraucht: Von Hassrede über Cybermobbing bis hin zu kriminellen Aktivitäten.
Ich habe mit dem auf Internetthemen spezialisierten Anwalt Christian Solmecke über das Thema gesprochen. Er hat mir erklärt: Plattformen sind zuständig – haben aber eben 24 Stunden Zeit, auf Videos mit kriminellen Inhalten zu reagieren. Eine Menge Zeit. Ausreichend Zeit jedenfalls, solche Videos dann zu kopieren – und sie verbreiten sich wirklich rasant im Netz.
[av_video src=’https://www.youtube.com/watch?v=rA6xz596K9w‘ format=’16-9′ width=’16‘ height=’9′ custom_class=“ av_uid=’av-95muwux‘]
Neue Technologien, alte Probleme
Die Plattformen rüsten technisch auf. Meta (Facebook/Instagram) setzt seit 2025 auf fortgeschrittene Computer Vision-Algorithmen, die Live-Inhalte in Echtzeit scannen. YouTube hat sein „Live Chat Moderation“ System mit KI-basierten Content-Filtern erweitert. TikTok experimentiert mit „Predictive Moderation“ – einem System, das bereits vor dem Stream das Risiko problematischer Inhalte einschätzt.
Doch die Realität sieht anders aus: Die Systeme produzieren massenhaft False Positives und blockieren harmlose Inhalte, während wirklich problematische Streams durchrutschen. Ein Gaming-Stream mit Ego-Shooter kann gesperrt werden, während subtilere Formen von Hassrede oder Manipulation unentdeckt bleiben.
Der Teufelskreis der Verbreitung
Zwar betreiben die Plattformen mittlerweile einen gewissen Aufwand, um die schneeballartige Verbreitung auszubremsen – allerdings gelingt das nicht, wie wir täglich sehen. Problematische Live-Inhalte werden binnen Minuten auf Telegram-Kanäle, Discord-Server oder in private WhatsApp-Gruppen weitergeleitet.
Besonders perfide: Bots erkennen automatisch, wenn ein Live-Stream viral geht oder kontrovers diskutiert wird. Sie laden die Inhalte herunter und verteilen sie über Dutzende von Backup-Accounts und alternativen Plattformen. Bis die Originalquelle gesperrt ist, existieren bereits hunderte Kopien.
Was sich 2026 ändert – und was nicht
Der EU Digital Services Act verschärft seit 2025 die Regeln für große Online-Plattformen. Sie müssen transparenter über ihre Moderationsprozesse berichten und bekommen härtere Strafen bei Verstößen. Doch auch hier gilt: Live-Content bleibt das Sorgenkind.
Einige Plattformen testen radikalere Ansätze. Twitch führt 2026 eine „Trust-Score“ für Streamer ein – wer problematische Inhalte produziert hat, darf nur noch mit Verzögerung streamen. Instagram testet Community-basierte Live-Moderation, bei der erfahrene Nutzer in Echtzeit problematische Streams melden können.
Ausblick: Prävention statt Reaktion
Die Lösung liegt wahrscheinlich nicht in besserer Erkennung, sondern in Prävention. Plattformen setzen zunehmend auf Account-Verifizierung, begrenzen Live-Funktionen für neue Nutzer und arbeiten mit Verhaltensmustern. Wer nachts um 3 Uhr zum ersten Mal einen Live-Stream startet und dabei aggressive Sprache verwendet, wird automatisch stärker überwacht.
Trotzdem bleibt ein Dilemma: Je strenger die Kontrollen, desto mehr legitimate Inhalte werden fälschlicherweise blockiert. Und je lockerer die Regeln, desto mehr problematische Inhalte schlüpfen durch. Ein Balanceakt, der auch 2026 nicht gelöst ist – und vielleicht nie vollständig gelöst werden kann.
Zuletzt aktualisiert am 03.03.2026