Nach der Trump-Blockade: Umgang mit Redefreiheit bei Twitter und Co.

von | 16.01.2021 | Social Networks

Die Macht der Tech-Konzerne über die digitale Meinungsfreiheit ist seit den Trump-Sperren 2021 noch dramatischer geworden. Heute entscheiden KI-Systeme und Algorithmen darüber, wer in sozialen Netzwerken gehört wird – während die Politik immer noch keine einheitlichen Regeln geschaffen hat. Das muss sich ändern.

Die Ereignisse von 2021, als Donald Trump von allen großen Plattformen gesperrt wurde, haben nur den Startschuss gegeben. Seitdem ist die Macht der Tech-Konzerne über den digitalen Diskurs exponentiell gewachsen. Was damals noch menschliche Moderatoren entschieden, übernehmen heute zunehmend KI-Systeme – mit allen Problemen, die das mit sich bringt.

Deplatforming wird zur Normalität

Deplatforming ist längst kein Ausnahmefall mehr, sondern alltägliche Praxis geworden. Jeden Tag werden Tausende von Accounts gesperrt, Inhalte gelöscht, Reichweiten gedrosselt. Was früher spektakuläre Einzelfälle waren, passiert heute im Minutentakt – gesteuert von Algorithmen, die nach undurchsichtigen Kriterien entscheiden.

Das Problem: Diese Systeme verstehen oft den Kontext nicht. Satire wird als Hassrede klassifiziert, historische Dokumente als extremistisch eingestuft, wissenschaftliche Diskussionen als „Fehlinformationen“ gelabelt. Die Folge: Immer mehr Menschen berichten von ungerechtfertigten Sperrungen und gelöschten Inhalten.

Besonders problematisch wird es bei politischen Themen. Während der Pandemie wurden auch seriöse Wissenschaftler gesperrt, die kritische Fragen stellten. Bei aktuellen Konflikten verschwinden regelmäßig Beiträge, die nicht der „offiziellen“ Linie entsprechen. Das ist nicht mehr Moderation – das ist digitale Zensur.

KI-Moderation verstärkt das Problem

Die großen Plattformen setzen massiv auf KI-basierte Moderation. Meta, Google, TikTok und Co. lassen Millionen von Entscheidungen täglich von Algorithmen treffen. Das ist effizient, aber extrem fehleranfällig. Diese Systeme haben ihre eigenen Verzerrungen und Blind Spots – und die werden auf Milliarden von Nutzern angewendet.

Besonders absurd: Verschiedene Plattformen kommen bei identischen Inhalten zu völlig unterschiedlichen Bewertungen. Was auf Twitter okay ist, führt auf Facebook zur Sperre. Was auf Instagram durchgeht, wird auf TikTok gelöscht. Es gibt keine Konsistenz, keine nachvollziehbaren Standards.

Dazu kommt: Die Plattformen sind längst nicht mehr neutral. Sie haben eigene politische und wirtschaftliche Interessen. Sie wollen Werbekunden nicht verärgern, Regulierungsbehörden beschwichtigen, bestimmte Narrative fördern oder unterdrücken. Das beeinflusst ihre Algorithmen – und damit unseren digitalen Diskurs.

Europa hinkt bei digitalen Rechten hinterher

Zwar gibt es mit dem Digital Services Act (DSA) seit 2024 neue EU-Regeln für große Plattformen. Aber die greifen viel zu kurz. Sie fokussieren sich auf Transparenz und Risikomanagement, nicht auf grundsätzliche Meinungsfreiheit. Die wirklich wichtigen Fragen bleiben unbeantwortet:

Wer darf entscheiden, was „Fehlinformation“ ist? Nach welchen Kriterien werden politische Inhalte bewertet? Wie können Nutzer sich gegen algorithmische Entscheidungen wehren? Warum gibt es keine einheitlichen Standards?

Die USA gehen mit ihrem First Amendment einen anderen Weg – aber auch dort wächst der Unmut über die Plattform-Macht. Elon Musks Übernahme von Twitter (jetzt X) hat gezeigt, wie schnell sich die Spielregeln ändern können, wenn ein einziger Milliardär das entscheidet.

Was jetzt passieren muss

Wir brauchen eine digitale Grundrechtecharta. Nicht nur für Europa, sondern als internationalen Standard. Diese muss klare Prinzipien definieren:

Transparenz: Alle Moderationsentscheidungen müssen nachvollziehbar sein. Nutzer haben das Recht zu erfahren, warum ihre Inhalte gelöscht oder ihre Accounts gesperrt wurden.

Verhältnismäßigkeit: Nicht jeder Verstoß rechtfertigt eine Sperre. Es muss abgestufte Maßnahmen geben – von Warnungen über Reichweitenbegrenzungen bis zur temporären Sperre.

Rechtsschutz: Es braucht unabhängige Beschwerdestellen, die schnell und kostenfrei über Streitfälle entscheiden können. Die aktuellen Platform-eigenen „Oversight Boards“ sind ein schlechter Witz.

Einheitliche Standards: Dieselben Inhalte dürfen nicht auf verschiedenen Plattformen unterschiedlich bewertet werden. Es braucht branchenweite Mindeststandards.

Algorithmus-Kontrolle: Nutzer müssen das Recht haben zu verstehen, wie Algorithmen über die Sichtbarkeit ihrer Inhalte entscheiden. Und sie müssen diese Algorithmen beeinflussen können.

Die Zukunft der digitalen Meinungsfreiheit

Die Tech-Konzerne werden ihre Macht nicht freiwillig abgeben. Sie werden weiter argumentieren, dass sie nur ihre „Community Guidelines“ durchsetzen. Aber diese Guidelines sind de facto zu Gesetzen geworden – zu Gesetzen, die von Unternehmen gemacht und durchgesetzt werden.

Das ist mit demokratischen Prinzipien unvereinbar. In einer Demokratie macht das Volk die Gesetze, nicht Google oder Meta. Wir müssen diese Macht zurückerobern – bevor es zu spät ist.

Die gute Nachricht: Das Bewusstsein für das Problem wächst. Immer mehr Menschen erkennen, dass wir uns in einer gefährlichen Abhängigkeit befinden. Politiker aller Parteien fordern schärfere Regeln. Auch in den USA, wo der Widerstand gegen Regulierung traditionell groß ist.

Es ist Zeit zu handeln. Nicht irgendwann, sondern jetzt. Die digitale Meinungsfreiheit ist zu wichtig, um sie Algorithmen und Shareholdern zu überlassen.

Zuletzt aktualisiert am 26.02.2026