Terrorgruppen wie der sogenannte Islamische Staat haben gezeigt, wie sich moderne Medien und soziale Netzwerke für Propaganda und Rekrutierung missbrauchen lassen. Obwohl ISIS als territoriale Macht längst zerschlagen ist, bleiben die Methoden der digitalen Terrorpropaganda hochaktuell – und werden von anderen Extremistengruppen weltweit kopiert. Die Verbreitung von Gewaltvideos und Hassbotschaften über soziale Medien ist zu einem permanenten Katz-und-Maus-Spiel zwischen Plattformbetreibern und Terroristen geworden.
Die ursprünglichen ISIS-Propagandavideos aus den Jahren 2014-2016 haben eine neue Ära des digitalen Terrorismus eingeläutet. Heute nutzen verschiedene Extremistengruppen ähnliche Taktiken: Sie produzieren professionell gemachte Inhalte, nutzen Multiple-Platform-Strategien und weichen auf alternative Netzwerke aus, wenn Mainstream-Plattformen ihre Inhalte sperren.
Moderne Herausforderungen der Content-Moderation
Die Herausforderungen von damals haben sich 2026 deutlich verschärft. Künstliche Intelligenz ermöglicht es Terrorgruppen heute, ihre Propaganda noch raffinierter zu gestalten – etwa durch Deep-Fake-Videos oder KI-generierte Bilder, die schwerer zu identifizieren sind. Gleichzeitig haben sich die Verbreitungskanäle vervielfacht.
Plattformen wie Telegram, Discord, TikTok oder verschiedene Gaming-Plattformen sind zu neuen Schlachtfeldern geworden. Besonders problematisch: Viele dieser Dienste verfügen über Ende-zu-Ende-Verschlüsselung oder dezentrale Strukturen, die eine Überwachung und Sperrung von Inhalten erschweren.
Die großen Tech-Konzerne haben ihre Content-Moderation seit 2014 massiv ausgebaut. Facebook (Meta), YouTube, Twitter (X) und andere setzen heute auf eine Kombination aus KI-basierten Erkennungssystemen und menschlichen Moderatoren. Diese Systeme können mittlerweile nicht nur identische Kopien von bekannten Terrorvideos erkennen, sondern auch ähnliche Inhalte und Variationen aufspüren.
Neue Strategien der Extremisten
Extremistische Gruppen haben ihre Taktiken entsprechend angepasst. Statt auf spektakuläre Einzelvideos setzen sie heute oft auf subtilere Methoden: Memes, verschleierte Botschaften, Gaming-Inhalte oder Live-Streams. Der Anschlag von Christchurch 2019 oder der Anschlag in Halle haben gezeigt, wie Täter Live-Streaming nutzen, um ihre Taten in Echtzeit zu übertragen.
Dezentrale Plattformen wie Diaspora, Mastodon oder verschiedene Blockchain-basierte Netzwerke bleiben problematisch, da sie keine zentrale Kontrolle ermöglichen. Hinzu kommen Dark-Web-Plattformen und verschlüsselte Messenger, die für Behörden schwer zugänglich sind.
Was heute funktioniert – und was nicht
Die gute Nachricht: Die Eindämmung terroristischer Online-Propaganda funktioniert heute deutlich besser als 2014. Große Plattformen entfernen problematische Inhalte meist binnen weniger Stunden oder sogar Minuten. Hash-Datenbanken sorgen dafür, dass einmal identifizierte Terrorvideos nicht wieder hochgeladen werden können.
Allerdings entstehen ständig neue Herausforderungen. Deep-Fake-Technologie macht es schwerer, authentische von manipulierten Inhalten zu unterscheiden. KI-generierte Propaganda lässt sich nicht mehr so einfach über bekannte Signaturen erkennen. Und die Verlagerung auf kleinere, weniger regulierte Plattformen erschwert die Kontrolle.
Benutzer spielen nach wie vor eine entscheidende Rolle. Melde-Systeme funktionieren heute deutlich besser als früher, und die Plattformen reagieren schneller auf Hinweise. Wer problematische Inhalte entdeckt, sollte diese unbedingt melden – egal ob bei YouTube, Instagram, TikTok oder anderen Diensten.
Präventionsarbeit wird wichtiger
Neben der reaktiven Löschung von Inhalten setzen Experten heute verstärkt auf Prävention. Counter-Narratives – also alternative Erzählungen, die extremistische Botschaften entkräften – werden gezielt in sozialen Medien platziert. Algorithmen werden so programmiert, dass sie Nutzern, die nach extremistischen Inhalten suchen, stattdessen Ausstiegshilfen oder kritische Informationen anzeigen.
Regierungen und NGOs arbeiten heute enger mit Tech-Unternehmen zusammen. Das Global Internet Forum to Counter Terrorism (GIFCT) koordiniert die Bemühungen verschiedener Plattformen. Die EU hat mit dem Digital Services Act neue rechtliche Rahmenbedingungen geschaffen, die Plattformen zu konsequenterem Vorgehen gegen illegale Inhalte verpflichten.
Ausblick: Der Kampf geht weiter
Der Kampf gegen Terrorpropaganda im Netz wird nie vollständig gewonnen sein. Während sich die Abwehrmechanismen verbessern, entwickeln auch die Extremisten neue Methoden. Künstliche Intelligenz könnte künftig beiden Seiten helfen: bessere Erkennung auf der einen, raffiniertere Tarnung auf der anderen Seite.
Entscheidend bleibt, dass alle Akteure – Plattformbetreiber, Behörden, Zivilgesellschaft und normale Nutzer – zusammenarbeiten. Die ursprüngliche Idee von #ISISmediaBlackout lebt in heutigen Initiativen weiter: Extremisten dürfen das Internet nicht unwidersprochen für ihre Zwecke nutzen. Jeder gemeldete terroristische Inhalt, jede Gegen-Erzählung und jede verweigerte Weiterleitung macht einen Unterschied.
Die Lehren aus den ISIS-Propagandavideos von 2014 haben zu deutlich besseren Abwehrmechanismen geführt. Aber Wachsamkeit bleibt geboten – denn die nächste Generation von Extremisten denkt bereits über neue Wege nach, das Netz für ihre Zwecke zu missbrauchen.
Zuletzt aktualisiert am 17.04.2026

