Die Rohingya-Klage gegen Meta war nur der Anfang: Inzwischen häufen sich weltweit Verfahren gegen Tech-Konzerne wegen algorithmisch verstärkter Gewalt und Desinformation.
Was 2021 mit der Whistleblowerin Frances Haugen und den Facebook Papers begann, hat eine Lawine von Klagen ausgelöst. Der Fall der Rohingya-Minderheit in Myanmar zeigt exemplarisch, wie soziale Medien gesellschaftliche Konflikte nicht nur verstärken, sondern systematisch monetarisieren.

Myanmar ist nicht so friedlich wie es aussieht
Der Rohingya-Fall: Präzedenz für Algorithmus-Haftung
Die ursprünglich auf 150 Milliarden Dollar bezifferte Klage der Rohingya gegen Meta hat juristische Maßstäbe gesetzt. Mittlerweile sind weitere Verfahren in verschiedenen Jurisdiktionen anhängig. Die Kernthese: Metas Algorithmen haben Hassrede gezielt verstärkt, weil sie mehr Engagement und damit mehr Werbeeinnahmen generierte.
Zentraler Vorwurf: „Meta war bereit, das Leben der Rohingya gegen bessere Marktdurchdringung einzutauschen.“
Interne Dokumente belegen, dass Meta schon 2018 von der Problematik wusste. Trotzdem wurden keine ausreichenden Gegenmaßnahmen ergriffen. Die Plattform hatte in Myanmar über 20 Millionen Nutzer – bei einer Bevölkerung von 54 Millionen praktisch das gesamte Internet.

Facebook fördert die Trennung der Gesellschaft
Neue rechtliche Entwicklungen weltweit
Seit 2024 haben sich die rechtlichen Rahmenbedingungen dramatisch verschärft. Der EU AI Act und der Digital Services Act schaffen erstmals verbindliche Haftungsregeln für algorithmische Entscheidungen. In den USA diskutiert der Kongress eine Reform von Section 230, die Tech-Plattformen bisher weitgehend vor Klagen schützte.
Besonders brisant: Auch in Deutschland laufen ähnliche Verfahren. Kläger machen Meta für die Radikalisierung in Telegram-Gruppen und die Verbreitung von Verschwörungstheorien verantwortlich. Der Bundestag erwägt ein „Algorithmushaftungsgesetz“, das Plattformen zur Transparenz ihrer Empfehlungssysteme verpflichten würde.
Das Geschäftsmodell der Spaltung
Das eigentliche Problem liegt im Kern des Engagement-basierten Geschäftsmodells. Emotionale, kontroverse Inhalte erzeugen mehr Interaktionen – und damit mehr Werbeeinnahmen. Eine 2025 veröffentlichte Studie der Stanford University belegt: Hassrede wird von Metas Algorithmen 5x häufiger verstärkt als neutrale Inhalte.
Meta hat zwar mittlerweile „Verantwortliche KI“-Teams aufgebaut und investiert Milliarden in Content-Moderation. Kritiker bezweifeln jedoch, ob diese Maßnahmen ausreichen. Solange das Grundprinzip „mehr Engagement = mehr Profit“ bestehen bleibt, werden gesellschaftlich schädliche Inhalte systematisch bevorzugt.
Warum uns Myanmar alle angeht
Der Fall Myanmar ist kein Einzelfall mehr. In Brasilien, Indien, den USA und Europa dokumentieren Forscher ähnliche Muster: Algorithmen verstärken gesellschaftliche Spaltungen, weil Konflikte profitabel sind. Corona-Leugner gegen Wissenschaft, Klimawandel-Skeptiker gegen Aktivisten, politische Radikalisierung – überall das gleiche Muster.
In Deutschland zeigt sich das besonders bei der AfD-Kommunikation und Querdenker-Bewegungen. Eine Analyse der Universität München aus 2025 belegt: Extremistische Inhalte erreichen auf Facebook durchschnittlich 3x mehr Menschen als moderate Positionen zu denselben Themen.
Finanzielle Konsequenzen zwingen zum Umdenken
Erst hohe Strafzahlungen scheinen Tech-Konzerne zum Umdenken zu bewegen. Meta musste 2024 bereits 2,8 Milliarden Euro Strafe in der EU zahlen. TikTok und X (ehemals Twitter) folgten mit ähnlichen Summen. Die Rohingya-Klage könnte weitere Präzedenzfälle schaffen.
Meta-CEO Mark Zuckerberg kündigte Ende 2025 eine grundlegende Überarbeitung der Algorithmen an. Statt reinem Engagement sollen nun auch „gesellschaftliche Auswirkungen“ berücksichtigt werden. Skeptiker sehen darin jedoch primär PR-Maßnahmen ohne substanzielle Änderungen.
Alternative Ansätze entstehen
Parallel entwickeln sich neue Plattform-Modelle. Mastodon, BlueSky und BeReal setzen auf chronologische Feeds statt algorithmischer Verstärkung. Die EU fördert mit 500 Millionen Euro „Public Interest Technologies“ – digitale Infrastrukturen ohne Profitmaximierung als Hauptziel.
Auch KI-basierte Lösungen werden erforscht. Das Fraunhofer-Institut entwickelt Algorithmen, die gesellschaftlichen Zusammenhalt statt Spaltung fördern. Erste Tests zeigen: Nutzer verbringen zwar weniger Zeit auf der Plattform, bewerten ihre Erfahrung aber als deutlich positiver.
Die Macht der Algorithmen: Facebook bestimmt, was die Menschen sehen
Ausblick: Das Ende der Engagement-Ökonomie?
Die Rohingya-Klage markiert einen Wendepunkt. Erstmals müssen Tech-Konzerne die wahren gesellschaftlichen Kosten ihrer Geschäftsmodelle bezahlen. Ob das zu grundlegenden Änderungen führt oder nur zu besserer PR, wird sich in den kommenden Jahren zeigen. Klar ist: Die Zeit unregulierter Algorithmus-Macht neigt sich dem Ende zu.
Zuletzt aktualisiert am 23.02.2026





