Overblocking bei X: Warum Algorithmen versagen

von | 20.12.2019 | Social Networks

X (ehemals Twitter) und andere Plattformen blockieren immer häufiger Accounts von Behörden, Medien und öffentlichen Einrichtungen. Was als Schutzmaßnahme gedacht ist, wird zum Problem für die digitale Kommunikation zwischen Staat und Bürgern. Die automatisierten Systeme können nicht zwischen legitimen und problematischen Inhalten unterscheiden.

Algorithmen übernehmen heute die Moderation sozialer Medien. Doch ihre Entscheidungen sind oft fehlerhaft und treffen die Falschen. Besonders problematisch wird es, wenn öffentliche Einrichtungen betroffen sind, die wichtige Informationen verbreiten müssen.

Wenn Behörden offline gehen

Vor einigen Jahren sperrte Twitter elf Polizei-Accounts gleichzeitig – darunter die von Borken, Höxter, Heinsberg und Steinfurt. Diese kleineren Accounts mit 400 bis 1200 Followern sind oft die erste Anlaufstelle für lokale Informationen bei Notfällen oder besonderen Ereignissen.

Die Begründung war immer dieselbe: „Ungewöhnliche Aktivität“ habe zur automatischen Sperrung geführt. Für Stunden waren wichtige Kommunikationskanäle tot. Bürger und Journalisten hatten keinen Zugriff auf aktuelle Polizeimeldungen. Die betroffenen Behörden mussten mühsam Belege vorlegen, um ihre Accounts zurückzubekommen.

Algorithmen versagen bei Kontext

Moderne KI-Systeme scannen Millionen von Posts nach verdächtigen Inhalten. Sie suchen nach Hassrede, Spam, Desinformation und anderen Verstößen gegen Community-Richtlinien. Das Problem: Sie verstehen keinen Kontext.

Ein Zitat in einem Nachrichtenartikel wird genauso behandelt wie ein Hassposting. Satirische Übertreibung kann nicht von echter Hetze unterschieden werden. Polizeimeldungen über Straftaten lösen dieselben Alarme aus wie die Straftaten selbst.

Das Ergebnis ist „Overblocking“ – die übervorsichtige Sperrung von Accounts, die eigentlich keine Probleme verursachen. Lieber einen zu viel sperren als einen zu wenig, lautet die Devise der Algorithmen.

Prominente Fälle von Fehlsperrungen

Die Liste problematischer Sperrungen wird länger. Der Schriftsteller Tom Hillenbrand verlor seinen Account wegen eines satirischen Tweets zur Europawahl – monatelang ohne Aussicht auf Entsperrung. Die Jüdische Allgemeine wurde blockiert, obwohl sie lediglich über antisemitische Vorfälle berichtet hatte.

Selbst etablierte Medien und Kulturschaffende trifft es regelmäßig. Autoren, Kabarettisten, Journalisten – sie alle fallen den stumpfen Algorithmen zum Opfer, die nicht zwischen Berichterstattung und Propaganda, zwischen Satire und Hetze unterscheiden können.

Die Lösung: Verifizierte Kontoklassen

Plattformen brauchen differenzierte Moderationssysteme. Nicht jeder Account sollte gleich behandelt werden. Behörden, Medien, Kulturschaffende und andere öffentliche Akteure benötigen spezielle Schutzmaßnahmen vor algorithmischen Fehlentscheidungen.

Verifizierte Behörden-Accounts sollten höchste Priorität haben. Ihre Sperrung sollte immer eine menschliche Überprüfung erfordern. Dasselbe gilt für etablierte Medien und verifizierte Journalisten, die im öffentlichen Interesse agieren.

Künstler und Satiriker brauchen erweiterte Meinungsfreiheit. Was unter Kunstfreiheit oder als Satire durchgeht, muss auch online möglich sein. Die Algorithmen müssen lernen, zwischen verschiedenen Kontexten zu unterscheiden.

Transparenz und Rechenschaftspflicht

Plattformen müssen transparent machen, wie ihre Moderationssysteme funktionieren. Betroffene brauchen schnelle und effektive Beschwerdeverfahren. Automatische Entscheidungen müssen zeitnah von Menschen überprüft werden können.

Besonders bei öffentlichen Accounts ist Geschwindigkeit entscheidend. Eine gesperrte Polizei-Seite kann in Notfällen Leben gefährden. Ein blockierter Nachrichtenkanal behindert die Meinungsbildung. Diese Fälle brauchen Priorität.

Regulierung als letzter Ausweg

Wenn sich die Plattformen nicht selbst reformieren, wird der Gesetzgeber aktiv. Der Digital Services Act der EU setzt bereits Standards für größere Plattformen. Nationale Gesetze könnten spezielle Schutzregelungen für Behörden und Medien einführen.

Doch Regulierung ist ein zweischneidiges Schwert. Zu viele Vorschriften können Innovation hemmen und neue Probleme schaffen. Besser wäre es, wenn die Plattformen freiwillig bessere Lösungen entwickeln.

Die Zukunft der digitalen Kommunikation

Social Media sind heute unverzichtbare Kommunikationskanäle für Behörden, Medien und Zivilgesellschaft. Ihre Funktionsfähigkeit ist ein öffentliches Interesse. Primitive Algorithmen dürfen nicht über wichtige gesellschaftliche Kommunikation entscheiden.

Wir brauchen intelligentere Systeme, die Kontext verstehen. Menschliche Moderatoren müssen bei wichtigen Entscheidungen das letzte Wort haben. Und die Plattformen müssen Verantwortung für ihre gesellschaftliche Rolle übernehmen.

Nur so können soziale Medien ihr Potential als demokratische Kommunikationsräume entfalten, statt zu unberechenbaren Zensurmaschinen zu werden, die willkürlich entscheiden, wer gehört wird und wer mundtot gemacht wird.

 

 

Zuletzt aktualisiert am 02.03.2026