Live-Streaming: Wie Plattformen gegen Gewaltvideos kämpfen

von | 15.05.2019 | Internet

Live-Streaming auf Social-Media-Plattformen ist längst zur Normalität geworden. Doch die Demokratisierung des Streamings bringt massive Probleme mit sich: Von Terrorattentaten bis hin zu Gewaltverherrlichung – alles landet ungefiltert in den Feeds. Während Plattformen wie Meta (ehemals Facebook), TikTok und YouTube mit halbherzigen Maßnahmen reagieren, verschärft sich das Problem der Live-Moderation täglich.

Das Attentat von Christchurch 2019 war nur der Anfang einer beunruhigenden Entwicklung. Seitdem haben wir unzählige weitere Fälle erlebt, in denen Gewalttaten live übertragen wurden. Der Anschlag in Buffalo 2022 wurde auf Twitch gestreamt, bevor er auf andere Plattformen überging. Auch in Deutschland sorgen Live-Streams mit extremistischen Inhalten regelmäßig für Schlagzeilen.

Die Täter nutzen dabei gezielt die Reichweite und Unmittelbarkeit von Live-Streaming als Teil ihrer Strategie. Sie wissen: Einmal live gesendet, verbreiten sich die Inhalte exponentiell über verschiedene Plattformen hinweg.

Aktuelle Maßnahmen der Plattformen: Noch immer unzureichend

Meta hat 2024 seine Community-Standards erneut überarbeitet und setzt verstärkt auf KI-basierte Erkennung problematischer Inhalte. Die Plattform verwendet jetzt fortschrittliche Computer-Vision-Systeme, die Live-Streams in Echtzeit analysieren. Bei verdächtigen Inhalten wird der Stream automatisch unterbrochen und menschliche Moderatoren eingeschaltet.

TikTok geht einen anderen Weg: Neue Accounts können erst nach einer 30-tägigen „Probezeit“ und bei mindestens 1000 Followern live gehen. YouTube hat ähnliche Beschränkungen eingeführt – Live-Streaming ist erst ab 500 Abonnenten möglich.

Twitch, nach dem Buffalo-Anschlag stark in der Kritik, hat seine Moderation massiv ausgebaut. Die Plattform setzt auf eine Kombination aus KI-Erkennung und menschlichen Moderatoren, die kritische Streams in Echtzeit überwachen können.

Das Katz-und-Maus-Spiel geht weiter

Trotz aller technischen Fortschritte bleiben die Maßnahmen reaktiv statt präventiv. Die Realität zeigt: Problematische Inhalte landen nach wie vor in Live-Streams. Die Erkennung funktioniert zwar besser, aber der Schaden entsteht oft schon in den ersten Minuten der Übertragung.

Besonders perfide: Extremisten nutzen mittlerweile kleinere Plattformen oder wechseln während der Übertragung zwischen verschiedenen Services. Discord, Telegram oder obskure Streaming-Dienste dienen als Ausweichplattformen, wenn die großen Anbieter zu schnell reagieren.

Die EU hat mit dem Digital Services Act (DSA) 2024 schärfere Regeln eingeführt. Große Plattformen müssen binnen einer Stunde nach Meldung illegale Inhalte entfernen. Bei Live-Streams bedeutet das praktisch eine sofortige Reaktion. Bei Verstößen drohen Strafen von bis zu sechs Prozent des weltweiten Jahresumsatzes.

Warum einfache Lösungen nicht funktionieren

Den Live-Stream komplett zu verbieten ist keine Option – zu wichtig ist er für Journalismus, Aktivismus und legitime Meinungsäußerung. Die Proteste in Iran 2022 oder die Berichterstattung aus der Ukraine zeigen, wie wertvoll ungefilterte Live-Übertragungen sein können.

Die Herausforderung liegt in der Echtzeitmoderation. KI-Systeme müssen Kontext verstehen, zwischen legitimer Berichterstattung und Gewaltverherrlichung unterscheiden. Gleichzeitig darf die Moderation nicht zur Zensur werden.

Einige Experten fordern eine Art „Streaming-Lizenz“ – ähnlich wie bei Rundfunklizenzen. Live-Streaming würde dann nur mit Registrierung und unter bestimmten Auflagen möglich sein. Critics sehen darin einen gefährlichen Eingriff in die Meinungsfreiheit.

Der Stand 2026: Fortschritte und neue Probleme

Die technische Entwicklung macht Fortschritte: Moderne KI kann mittlerweile auch manipulierte oder leicht veränderte Versionen bekannter Gewaltvideos erkennen. Hash-Datenbanken werden zwischen Plattformen geteilt, sodass einmal identifizierte problematische Inhalte plattformübergreifend blockiert werden.

Gleichzeitig entstehen neue Herausforderungen: Deepfake-Technologie macht es möglich, Live-Streams zu fälschen oder zu manipulieren. VR-Streaming eröffnet völlig neue Dimensionen der Immersion – und damit auch des Missbrauchs.

Die Lösung wird letztendlich ein Mix aus verschiedenen Ansätzen sein: Bessere KI-Moderation, strengere Zugangsbeschränkungen für neue Accounts, mehr Transparenz bei den Algorithmen und eine internationale Koordination der Plattformen.

Wichtig ist dabei: Die Verantwortung liegt nicht nur bei den Plattformen. Auch wir als Nutzer müssen lernen, problematische Inhalte zu erkennen und zu melden. Medienbildung wird zur Grundkompetenz im digitalen Zeitalter.

Die Diskussion um Live-Streaming-Regulierung ist längst nicht beendet. Sie wird uns noch Jahre beschäftigen – denn mit jeder technischen Innovation entstehen neue Möglichkeiten des Missbrauchs. Die Frage ist nicht, ob wir perfekte Lösungen finden, sondern wie schnell wir auf neue Bedrohungen reagieren können.

Zuletzt aktualisiert am 04.03.2026