Die Livestream-Revolution hat ein dunkles Gesicht. Von Christchurch über den Anschlag in Halle bis hin zu den zahlreichen TikTok-Challenges, die bereits Todesopfer gefordert haben – Täter und Influencer nutzen die ungehinderte Live-Übertragung für ihre Zwecke. Was die Frage aufwirft: Warum darf eigentlich immer noch jeder, jederzeit und alles live streamen?
Die sogenannten „Sozialen Medien“: Sie haben sich angesichts unzähliger schrecklicher Ereignisse der letzten Jahre als alles andere als sozial erwiesen. Von den Attentaten in Christchurch über Halle bis hin zu den jüngsten Amokläufen in den USA.
Wie sozial ist es, wenn ein Massenmörder mit einer Actioncam auf dem Kopf wild um sich schießend herumlaufen kann – und seine hemmungslose Tat live bei Facebook, TikTok oder Twitch zu sehen ist? Wenn es darüber hinaus im Anschluss nicht gelingt, das Video und alle Kopien aus den Netzwerken zu entfernen?
Meta (Facebook), YouTube, TikTok und Co. haben also zweifellos dabei geholfen, Täter und ihre Taten groß zu machen. Trotz aller Beteuerungen und Millionen-Investitionen in Content-Moderation.

KI-Moderation versagt bei Live-Content
Das Problem hat sich 2024 und 2025 dramatisch verschärft. Während die Plattformen mittlerweile durchaus effektive KI-Systeme zur Erkennung problematischer Inhalte einsetzen, versagen diese bei Live-Streams weitgehend. Die Echtzeit-Analyse ist technisch noch immer eine Herausforderung – und selbst wenn Algorithmen Gewalt erkennen, dauert es oft Minuten, bis ein Stream gestoppt wird.
Minuten, in denen bereits Tausende zusehen und das Material weiterverbreiten können. Auf Plattformen wie Discord, Telegram oder in geschlossenen WhatsApp-Gruppen kursieren diese Videos dann wochenlang weiter.
Leider kein Einzelfall. Man denke nur an die vielen Videos der IS-Terroristen, die immer wieder in den Netzwerken kursieren. Aber auch an Hatespeech, Hetze und die neuen Deepfake-Livestreams, mit denen Politiker oder Prominente kompromittiert werden sollen.
TikTok und die Challenge-Kultur
Besonders perfide: Die sogenannte „Challenge-Kultur“ auf TikTok und Instagram. Hier werden gefährliche oder sogar tödliche Aktionen als Livestream inszeniert. Die „Blackout Challenge“, bei der sich Jugendliche selbst würgen, hat bereits mehrere Todesopfer gefordert. Die Plattformen reagieren erst, wenn es zu spät ist.
Dabei ist Zensur an sich nichts Schlechtes. Im Gegenteil: Das lateinische Wort „censura“ bedeutet strenge Kontrolle. Eine Kontrolle über das, was in Massenmedien für jeden frei zugänglich verteilt wird, ist alles andere als schädlich. Ich erkenne keinen Wert darin, dass ein Attentäter seine Tat live übertragen kann.

Technische Lösungsansätze existieren bereits
Daher ist es längst überfällig, über einen „Live-Führerschein“ nachzudenken. Nur wer sich offiziell registriert und als vertrauenswürdig erweist, darf live übertragen. Denn ein Zurücknehmen von etwas, das man live gesehen hat, geht nicht.
Interessant: In China funktioniert ein ähnliches System bereits seit Jahren. Dort müssen sich Livestreamer registrieren und durchlaufen eine Art Zertifizierung. Verstöße führen zu sofortigen und dauerhaften Sperren. Auch wenn man das chinesische System insgesamt kritisch sehen muss – bei der Livestream-Regulierung sind sie uns voraus.
Technisch wären deutlich bessere Kontrollen möglich. KI-Systeme können mittlerweile Gewalt, Waffen oder gefährliche Situationen in Echtzeit erkennen. YouTube hat 2025 ein System vorgestellt, das verdächtige Livestreams automatisch mit einer 30-Sekunden-Verzögerung versieht – genug Zeit für eine KI-Prüfung.
Digital Services Act zeigt erste Wirkung
Immerhin: Der Digital Services Act der EU zeigt erste Wirkung. Seit 2024 müssen große Plattformen transparenter über ihre Content-Moderation berichten. Meta hat daraufhin angekündigt, Livestreams ab 2026 standardmäßig mit einer KI-Vorabprüfung zu versehen.
Trotzdem reicht das nicht. Videos sollten mit einer Art DNA-Fingerabdruck versehen werden. Blockchain-basierte Content-IDs könnten helfen, 1:1-Kopien sofort zu identifizieren und plattformübergreifend zu blockieren. Die Technologie dafür existiert – es fehlt nur der politische Wille.
Freie Meinungsäußerung bleibt ein hohes Gut. Aber das kann nicht bedeuten, dass Attentats-Videos oder Suizid-Livestreams ungehindert kursieren dürfen. Eine demokratische Gesellschaft muss in der Lage sein, ihre digitalen Räume zu schützen – gerade vor denen, die sie zerstören wollen.
Zuletzt aktualisiert am 05.03.2026
