Meta veröffentlichte 2024 neue Transparenzberichte zu seinen Moderations-Praktiken – doch die Zwei-Klassen-Gesellschaft bei der Inhaltsmoderation besteht weiter. Während normale Nutzer automatisch gesperrt werden, genießen Millionen von VIPs und Influencern weiterhin Sonderbehandlungen.
Fast vier Milliarden Menschen nutzen mittlerweile die Meta-Plattformen Facebook und Instagram weltweit. Die Moderation dieser gigantischen Nutzermengen bleibt eine der größten Herausforderungen – und wie sich zeigt, werden dabei längst nicht alle gleich behandelt.
Der Fall des Fußballers Neymar aus dem Jahr 2019 war nur die Spitze des Eisbergs: Er postete damals Nacktfotos einer Ex-Freundin auf Facebook, ohne dass die sonst so rigiden Algorithmen eingriffen. Millionen sahen die Bilder, bevor Moderatoren sie schließlich entfernten – ohne Konsequenzen für Neymar. Parallel dazu werden regelmäßig Kunstmuseen gesperrt, die klassische Gemälde mit nackten Körpern zeigen.
Das „Cross Check“-System: Privilegien für Prominente
Interne Dokumente, die 2021 durch Whistleblowerin Frances Haugen an die Öffentlichkeit gelangten, enthüllten das „XCheck“-Programm (Cross Check). Dieses System schützt geschätzt über sechs Millionen Accounts vor der automatischen Moderation – darunter Politiker, Schauspieler, Influencer und andere Personen des öffentlichen Lebens.
Das Programm funktioniert wie ein digitaler VIP-Status: Während normale Nutzer bei Regelverstößen sofort automatisch gesperrt werden, landen die Inhalte von XCheck-Nutzern zunächst bei menschlichen Moderatoren. Das bedeutet oft stunden- oder tagelange Verzögerungen, in denen problematische Inhalte Millionen erreichen können.
Aktuelle Entwicklungen und politische Dimension
Besonders brisant wurde das Thema 2024 durch mehrere Vorfälle: Während der US-Präsidentschaftswahlen blieben nachweislich falsche Behauptungen von verifizierten Accounts stundenlang online, während ähnliche Posts normaler Nutzer binnen Minuten entfernt wurden.
Die EU-Kommission leitete deshalb im Frühjahr 2024 ein Verfahren gegen Meta ein. Der Vorwurf: Verstoß gegen den Digital Services Act durch ungleiche Behandlung der Nutzer. Meta drohen Strafen bis zu sechs Prozent des weltweiten Jahresumsatzes.
Metas Rechtfertigungen und interne Kritik
Meta begründet die Sonderbehandlung mit dem „öffentlichen Interesse“ und der Gefahr von „Übermoderation“ bei gesellschaftlich relevanten Personen. Ein weiterer Punkt: Die Angst vor PR-Desastern, wenn fälschlicherweise prominente Accounts gesperrt werden.
Intern sieht das anders aus. Ehemalige Mitarbeiter berichten von systematischen Problemen: „Das XCheck-System ist völlig intransparent geworden. Niemand weiß mehr genau, wer drauf steht und warum“, erklärt ein ehemaliger Content-Moderator gegenüber der „Financial Times“.
Besonders problematisch: Auch das eigene Oversight Board, Metas „unabhängiges“ Aufsichtsgremium, wurde jahrelang nicht vollständig über den Umfang des Programms informiert.
Konkrete Auswirkungen auf normale Nutzer
Die Zwei-Klassen-Moderation hat reale Konsequenzen: Während Influencer mit Millionen Followern selbst bei eindeutigen Verstößen oft nur „Verwarnungen“ erhalten, werden normale Nutzer für geringste Vergehen dauerhaft gesperrt.
Ein Beispiel aus Deutschland: 2024 wurde ein Journalist gesperrt, weil er Screenshots von Hasskommentaren zur Dokumentation postete. Der ursprüngliche Hasskommentar eines verifizierten Accounts blieb jedoch online.
Transparenz-Offensive oder PR-Strategie?
Seit 2023 veröffentlicht Meta quartalsweise „Content-Moderation-Reports“, die mehr Einblick in die Verfahren geben sollen. Kritiker bemängeln jedoch, dass gerade die VIP-Programme weiterhin im Dunkeln bleiben.
Meta-Deutschland-Chef Martin Ott versprach 2024 „mehr Fairness“ bei der Moderation, konkrete Änderungen am XCheck-System blieben aber aus. Stattdessen wurde das Programm 2024 sogar auf weitere Länder ausgeweitet.
Was das für euch als Nutzer bedeutet
Die ungleiche Behandlung betrifft jeden, der soziale Medien nutzt. Während ihr bei Regelverstößen – ob berechtigt oder nicht – sofort Konsequenzen fürchten müsst, genießen andere weitreichende Privilegien.
Experten fordern deshalb klare gesetzliche Regelungen: Entweder sollten die Plattformen ihre Moderations-Kriterien vollständig offenlegen, oder es müssen einheitliche Standards für alle gelten – ohne Ausnahmen.
Die Diskussion zeigt ein grundsätzliches Problem: Private Konzerne kontrollieren den digitalen Diskursraum, entscheiden über Meinungsfreiheit und Informationsverbreitung – aber nach intransparenten, ungleichen Regeln. Das passt nicht zu demokratischen Grundwerten und dem Anspruch auf Gleichbehandlung.
Zuletzt aktualisiert am 24.02.2026