Viele Menschen informieren sich ausschließlich oder vor allem auf Plattformen wie TikTok, Instagram, YouTube, Facebook und X. Die Bedeutung der Plattformen als Verbreitungsweg nimmt unbestreitbar zu. Doch immer öfter blockieren die Plattformen journalistische Inhalte – und das mit weitreichenden Folgen. Was mit Fällen wie dem gesperrten Monitor-Beitrag oder der blockierten Titanic-Ausgabe begann, hat sich 2025/2026 dramatisch verschärft. KI-Moderationssysteme werden immer aggressiver, während gleichzeitig neue Gesetze wie der EU Digital Services Act die Rechtslage verkomplizieren. Sind die Plattformen überfordert – oder zensieren sie gezielt Medieninhalte?
Die Grundproblematik ist dieselbe geblieben, hat sich aber massiv verstärkt: Plattformen setzen zunehmend auf automatisierte Inhaltskontrolle, die zwischen legitimen journalistischen Inhalten und problematischen Postings nicht unterscheiden kann. Was früher vereinzelte Fälle waren, ist heute systematisches Problem geworden.
KI-Moderation wird zum Flächenbrand
Die großen Plattformen haben ihre KI-Systeme seit 2021 massiv ausgebaut. Meta (Facebook/Instagram), Google/YouTube, TikTok und X setzen auf Large Language Models, die Millionen von Posts pro Minute scannen. Das Problem: Diese Systeme werden immer „vorsichtiger“ programmiert – mit fatalen Folgen für journalistische Inhalte.
Ein aktuelles Beispiel: Ende 2025 sperrte TikTok eine komplette Dokumentation des ZDF über Rechtsextremismus, weil das System die gezeigten Hakenkreuze als „Nazi-Propaganda“ einstufte. Dass es sich um eine Aufklärungssendung handelte, erkannte die KI nicht. Ähnlich erging es einer ARD-Reportage über Femizide – gesperrt wegen „Gewaltdarstellung“.
Das eigentliche Problem: Die Plattformen haben ihre Moderationsteams drastisch reduziert. Meta hat allein 2024 über 11.000 Content-Moderatoren entlassen, YouTube 8.000. Gleichzeitig werden KI-Systeme aggressiver kalibriert, um rechtliche Risiken zu minimieren – auf Kosten der Pressefreiheit.
Der Digital Services Act verschärft die Lage
Seit Februar 2024 gilt der EU Digital Services Act (DSA) vollständig. Theoretisch soll er für mehr Transparenz sorgen, praktisch macht er die Situation aber noch komplexer. Die Plattformen müssen nun binnen 24 Stunden auf Meldungen reagieren und detaillierte Moderationsentscheidungen dokumentieren.
Das Resultat: Noch mehr Automatisierung, noch weniger menschliche Prüfung. „Lieber einmal zu viel sperren als eine Strafe riskieren“, so die interne Devise bei den großen Tech-Konzernen. Journalistische Inhalte werden dabei als Kollateralschäden hingenommen.
Besonders perfide: Manche Plattformen nutzen den DSA sogar als Vorwand für Zensur. X (ehemals Twitter) unter Elon Musks Führung hat 2025 mehrfach kritische Berichte über Tesla oder SpaceX wegen angeblicher „Desinformation“ gesperrt – und sich dabei auf DSA-Compliance berufen.
Neue Dimensionen der Plattform-Macht
Was 2021 noch Einzelfälle waren, ist heute systematisch geworden. Eine Analyse der Landesmedienanstalten zeigt: 2025 wurden über 3.400 journalistische Inhalte zeitweise oder dauerhaft von großen Plattformen gesperrt – ein Anstieg um 340% gegenüber 2022.
Besonders betroffen sind investigative Recherchen zu Themen wie Klimawandel, Rechtsextremismus, Konzernkritik und Überwachung. Zufall? Wohl kaum. Die Plattformen haben längst eigene politische und wirtschaftliche Agendas.
Ein Beispiel aus jüngster Zeit: Als mehrere deutsche Medien 2025 über die Arbeitsbedingungen in TikToks europäischen Rechenzentren berichteten, wurden diese Berichte systematisch in der Reichweite gedrosselt. TikToks Algorithmus zeigte sie nur noch einem Bruchteil der eigentlichen Zielgruppe – de facto eine Shadowban-Kampagne gegen kritischen Journalismus.
Lösungsansätze und ihre Grenzen
Die Politik reagiert langsam. Das geplante „Medienfreiheitsgesetz“ der EU soll journalistische Inhalte besser schützen, aber frühestens 2027 greifen. Bis dahin bleiben Redaktionen den Launen der Algorithmen unterworfen.
Einige Bundesländer experimentieren mit „Press Cards“ für digitale Plattformen – ein Verifikationssystem, das journalistische Accounts kennzeichnet und vor automatischen Sperren schützen soll. Bayern und NRW haben entsprechende Pilotprojekte gestartet, aber die Plattformen machen nur halbherzig mit.

Was jetzt passieren muss
Die aktuelle Situation ist unhaltbar. Amerikanische und chinesische Konzerne entscheiden faktisch über die Informationsfreiheit in Deutschland und Europa. Das ist ein demokratiepolitischer Skandal erster Güte.
Wir brauchen sofort drei Maßnahmen: Erstens einen rechtlich verbindlichen Pressestatus für journalistische Inhalte auf allen großen Plattformen. Zweitens verpflichtende menschliche Überprüfung bei Sperrungen von Medieninhalten binnen vier Stunden. Drittens saftige Strafen für Plattformen, die systematisch Pressefreiheit beschränken – nicht 0,1% des Umsatzes, sondern 5-10%.
Denn eines ist klar: Wenn wir jetzt nicht handeln, überlassen wir die Kontrolle über unsere Informationslandschaft vollends den Algorithmen. Und die verstehen weder Pressefreiheit noch Demokratie – sie verstehen nur Profitmaximierung und Risikominimierung. Das können wir uns nicht leisten.
Die Zeit der freundlichen Gespräche mit den Tech-Giganten ist vorbei. Jetzt braucht es knallharte Regulierung – bevor unsere Medienlandschaft endgültig den Bach runtergeht.
Zuletzt aktualisiert am 26.02.2026
