Die Anschläge von Christchurch, Halle oder Buffalo – alle wurden live gestreamt. Terroristen nutzen Plattformen wie Twitch, Facebook oder TikTok, um ihre Taten in Echtzeit zu übertragen. Ein Muster, das sich immer wieder wiederholt und die Frage aufwirft: Ist es verantwortbar, dass jeder jederzeit alles streamen kann? Ohne wirksame Kontrolle?
Wer ein öffentliches Radio- oder Fernsehprogramm ausstrahlen möchte, braucht dafür eine Lizenz. Nicht nur, weil damit bestimmte Frequenzen belegt werden, sondern vor allem, weil auf diese Weise sehr viele Menschen erreicht werden. Unmittelbar. Live. Damit ist eine enorme Verantwortung verbunden. Es gibt also sehr gute Gründe, wieso nicht jeder einen Radio- oder Fernsehsender starten und betreiben darf. Und wenn, dann gehen damit eine Menge Verpflichtungen einher.
Unhaltbar: Jeder kann jederzeit alles streamen
Heute ist das anders. Heute kann jeder einen Live-Stream auf TikTok, YouTube, Instagram, Discord oder Kick starten – und nicht nur jeden Unsinn daherreden, sondern auch hetzen oder terroristische Taten live übertragen. Das passiert regelmäßig: Von Amokläufen über Suizide bis hin zu extremistischen Propaganda-Streams.
Das wirft die Frage auf, ob es richtig sein kann, dass einfach jeder – völlig unkontrolliert – einen solchen Live-Stream starten darf. Jeder. Egal wie verrückt, egal wie kompetent, egal wie erfahren – und auch egal, mit welchem Ziel.
Terroristen und Täter sind dankbar für diese Möglichkeiten. Sie können so ihre Untaten bekannt machen. Das Öffentlichmachen ihrer Tat – sogar live! – ist oft ein erhebliches Tatmotiv. Sie werden „berühmt“. Für immer mit der Tat verbunden. Das Netz vergisst nichts. Die Tätervideos sind nie wieder komplett aus dem Netz zu entfernen – bei aller Anstrengung, die unternommen wird.

Verhinderungsmechanismen versagen weiterhin
Nach Christchurch versprachen Facebook, YouTube und Co. bessere Mechanismen gegen die Verbreitung von Terrorvideos. Das Global Internet Forum to Counter Terrorism sollte die rasante Verbreitung solcher Gewaltvideos ausbremsen. Die Realität zeigt: Diese Bemühungen reichen nicht aus.
Neue Plattformen wie Rumble, Kick oder Telegram machen das Problem noch komplexer. Während etablierte Anbieter zumindest rudimentäre Kontrollmechanismen haben, entstehen immer wieder neue Streaming-Dienste ohne jegliche Moderation.
KI hilft nur begrenzt
Selbst modernste KI-Systeme stoßen an Grenzen. Realistische First-Person-Shooter sind von echten Gewaltvideos kaum zu unterscheiden. Live-Streams können nicht in Echtzeit zuverlässig moderiert werden – erst recht nicht bei kleineren Plattformen mit begrenzten Ressourcen.
Experten bei Meta bestätigen: Eine 100-prozentige automatische Erkennung von Gewaltinhalten in Live-Streams ist technisch unmöglich. Die Unterscheidung zwischen Spiel und Realität überfordert auch die beste KI.
Neue Herausforderungen durch Deepfakes
Verschärft wird das Problem durch Deepfake-Technologie. Mittlerweile können gefälschte Live-Streams erstellt werden, die täuschend echt aussehen. Das macht sowohl die Moderation als auch die Strafverfolgung noch schwieriger.
Gleichzeitig nutzen Extremisten neue Technologien wie dezentrale Streaming-Protokolle oder Blockchain-basierte Plattformen, die praktisch nicht zu kontrollieren sind.
Regulierung als Lösung?
In der EU greift seit 2024 der Digital Services Act (DSA), der Plattformen zu schärferen Kontrollen verpflichtet. Große Anbieter müssen Risikobewertungen durchführen und Transparenzberichte veröffentlichen. Doch die Wirksamkeit ist umstritten.
Einige Länder gehen weiter: Australien erwägt eine Lizenzpflicht für Live-Streaming-Anbieter. Südkorea verlangt bereits eine Echtzeitverifikation von Streamern. Deutschland diskutiert über ähnliche Maßnahmen.
Die Kernfrage: Verantwortung versus Freiheit
Es darf auch nicht jeder hinters Steuer und Auto fahren. Warum darf jeder streamen? Es darf nicht jeder unterrichten. Wieso darf jeder live senden? Diese Fragen werden drängender.
Wir sollten diskutieren, ob die vermeintliche „Freiheit“, dass im Netz jeder jederzeit alles darf – zudem oft anonym -, nicht ein erhebliches gesellschaftliches Problem darstellt.
Mögliche Lösungsansätze:
– Verifizierung von Live-Streamern
– Verzögerung bei Live-Übertragungen (5-10 Sekunden)
– Schärfere Haftungsregeln für Plattformen
– Internationale Zusammenarbeit bei der Verfolgung
– Bildungsarbeit über die Risiken
Plattformen in der Verantwortung
Plattformen wie Twitch, YouTube oder TikTok verdienen Milliarden mit User-Generated Content. Gleichzeitig wälzen sie die Verantwortung für problematische Inhalte auf die Nutzer ab. Das kann nicht die Lösung sein.
Wenn Terrorvideos über eine Plattform verbreitet werden, sollte das Konsequenzen haben – nicht nur PR-Statements. Anlässe wie die vergangenen Anschläge sind Grund genug, über verbindliche Regeln zu diskutieren. Im Augenblick haben wir kaum welche. Das ist nicht gut.
Zuletzt aktualisiert am 03.03.2026