Meta beendet Fact-Checking: Zuckerbergs Kehrtwende bei Moderation

von | 05.06.2020 | Digital

Der Kampf um Meinungsfreiheit und Moderation in sozialen Netzwerken ist längst nicht beendet. Während Mark Zuckerbergs Meta-Konzern 2025 seine jahrelange Fact-Checking-Politik aufgab und zu einem Community-Notes-System wechselte, tobt die Debatte über Plattform-Verantwortung weiter.

Facebook-Gründer Mark Zuckerberg hat seine Haltung zur freien Rede über die Jahre immer wieder angepasst – meist unter politischem Druck. 2024 kündigte er an, die Zusammenarbeit mit externen Fact-Checkern zu beenden und stattdessen auf nutzergenerierte Korrekturen zu setzen, ähnlich wie bei X (ehemals Twitter).

Doch was bedeutet diese neue „Hands-off“-Haltung konkret? Meta will sich künftig weniger in Inhalte einmischen und mehr auf „freie Meinungsäußerung“ setzen. Kritiker sehen darin einen Rückschritt in der Bekämpfung von Desinformation und Hassrede.

Vom Fact-Checking zu Community Notes

Nach dem Vorbild von Elon Musks X setzt Meta nun auf „Community Notes“ – ein System, bei dem Nutzer selbst fragwürdige Inhalte kommentieren und korrigieren können. Die Idee: Statt zentraler Zensur soll die Community selbst regulieren.

Das Problem: Community Notes funktionieren nur bei ausreichend engagierten und sachkundigen Nutzern. Auf X zeigt sich bereits, dass das System bei kontroversen Themen oft versagt oder zu spät greift. Desinformation verbreitet sich schneller als Korrekturen.

Zuckerbergs Kurswechsel kam nicht zufällig. Nach Donald Trumps Wahlsieg 2024 und der angekündigten härteren Gangart gegen „Big Tech“ schwenkte Meta auf einen versöhnlicheren Kurs ein. Die Botschaft: Wir sind keine Zensoren mehr.

Die neue Plattform-Realität 2026

Heute sieht die Landschaft so aus: X unter Elon Musk ist weitgehend unmoderiert, Meta hat seine Moderation zurückgefahren, TikTok kämpft um sein Überleben, und neue Plattformen wie Bluesky und Threads konkurrieren um Nutzer mit unterschiedlichen Moderations-Philosophien.

Das Ergebnis? Ein Flickenteppich aus Regeln und Standards. Was auf einer Plattform gelöscht wird, ist auf der anderen völlig akzeptabel. Nutzer wechseln zwischen Plattformen je nach gewünschter „Meinungsfreiheit“ oder Moderation.

Besonders brisant: KI-generierte Inhalte machen die Moderation noch komplexer. Deep Fakes, KI-Texte und synthetische Medien sind schwerer zu erkennen und zu bewerten. Die Community-Moderation stößt hier schnell an Grenzen.

Europas Antwort: Der Digital Services Act

Während US-Plattformen ihre Moderation lockern, verschärft Europa die Regeln. Der Digital Services Act (DSA) verpflichtet große Plattformen zu transparenter Inhaltsmoderation und Risikobewertung. Verstöße können Milliarden-Strafen nach sich ziehen.

Meta muss in der EU weiterhin strikt moderieren, während in den USA lockerer vorgegangen wird. Das führt zu einem gespaltenen Internet: Europäer sehen andere Inhalte als Amerikaner.

Die Ironie: Zuckerberg, der einst globale Standards setzen wollte, muss nun regionalen Gesetzen folgen. Seine Vision einer einheitlichen, „freien“ Plattform ist Realitätspolitik gewichen.

Wo bleibt die Verantwortung?

Die entscheidende Frage bleibt: Sind Plattformen neutrale Infrastruktur oder Medienunternehmen mit redaktioneller Verantwortung? Zuckerbergs aktueller Kurs suggeriert ersteres – doch die Macht der Algorithmen spricht für letzteres.

Jeder Algorithmus trifft Entscheidungen: Was wird prominent gezeigt, was versteckt? Diese algorithmische Kuration ist de facto Redaktion. Plattformen können sich nicht aus der Verantwortung stehlen, indem sie auf „neutrale“ Technik verweisen.

Zudem zeigt die Praxis: Völlig unmoderierte Räume werden schnell von Extremisten übernommen. Die Meinungsfreiheit der einen beschneidet die der anderen. Ein Paradox, das sich nicht einfach weglassen lässt.

Community-Moderation: Chance oder Chaos?

Trotz aller Kritik haben Community-basierte Ansätze durchaus Potenzial. Reddit zeigt seit Jahren, dass dezentrale Moderation funktionieren kann – allerdings nur mit klaren Regeln und engagierten Moderatoren.

Der Schlüssel liegt in der Ausgestaltung: Wer kann Community Notes erstellen? Wie werden sie bewertet? Gibt es Qualitätskontrollen? Ohne durchdachte Mechanismen wird aus Community-Moderation schnell Community-Chaos.

Manche Experten sehen in der hybriden Lösung die Zukunft: KI-Systeme erkennen problematische Inhalte vor, die Community bewertet sie nach. So kombiniert man technische Effizienz mit menschlichem Urteilsvermögen.

Die Zukunft der Plattform-Regulierung

Eines ist klar: Die Wild-West-Zeit der sozialen Medien ist vorbei. Ob durch Gesetze wie den DSA, gesellschaftlichen Druck oder Werbeboykotte – Plattformen müssen sich ihrer Verantwortung stellen.

Zuckerbergs jüngster Schwenk ist weniger Prinzipienfestigkeit als politisches Kalkül. Je nach Windrichtung wird Meta seine Politik wieder anpassen. Verlässliche Standards sehen anders aus.

Am Ende braucht es einen gesellschaftlichen Konsens darüber, welche Art von öffentlichem Diskurs wir wollen. Überlassen wir das Mark Zuckerberg und anderen Tech-Milliardären, werden deren Geschäftsinteressen entscheiden – nicht unsere demokratischen Werte.

[av_video src=’https://vimeo.com/425412226′ mobile_image=“ attachment=“ attachment_size=“ format=’16-9′ width=’16‘ height=’9′ conditional_play=“ av_uid=’av-oyvlxo‘]

Zuletzt aktualisiert am 01.03.2026