Wenn Algorithmen über politische Kunst entscheiden

von | 23.11.2017 | Social Networks

Eine Künstlergruppe hat in der unmittelbaren Umgebung von AfD-Politiker Björn Höcke ein Mahnmal aufgebaut, so wie in Berlin – nur kleiner. Das Projekt wurde in Videos festgehalten und diese auf YouTube veröffentlicht. YouTube hat zeitweise nicht nur die Videos aus dem Portal entfernt, sondern auch das Konto gesperrt. Ein Fall, der bis heute zeigt, wie mächtig die Content-Moderation der Tech-Giganten geworden ist.

Eine Kopie des Holocaust-Mahnmals in die Nähe des Wohnhauses von Björn Höcke aufzustellen, mag der eine als Kunst, der andere als Provokation verstehen. Vielleicht ist es beides. Doch interessant ist die Frage, wieso YouTube kommentarlos Videoberichte über die Aufstellung des Mahnmals aus seinem Angebot entfernt hat. Nicht nur die Videos wurden gelöscht, sondern sogar der komplette Account der Initiative „Zentrum für politische Schönheit“ von YouTube gesperrt. Die Betreiber berichteten damals:

„Das gesamte Konto wurde gelöscht, ohne mit uns Rücksprache zu halten. Bei Youtube ist niemand für uns zu sprechen. Der Inhalt der Videos ist juristisch geprüft und unproblematisch – wir wurden auch nicht von Bernd Höcke zur Unterlassung aufgefordert. Was dort vorgeht ist Zensur.“

Der Algorithmus entscheidet über politische Kunst

Dieser Fall von 2017 war ein Weckruf – und die Situation hat sich seitdem eher verschärft. Zensur ist es nicht gleich, zumindest keine staatliche, wenn Beiträge aus einem Sozialen Netzwerk entfernt werden. Aber es ist ein erheblicher Eingriff in die Meinungsfreiheit. Besonders brisant wird es, wenn automatisierte Systeme über komplexe politische Inhalte entscheiden.

Damals wie heute arbeitet YouTube mit einem Mix aus KI-Algorithmen und menschlichen Moderatoren. Die KI-Systeme haben sich zwar deutlich weiterentwickelt – Google setzt mittlerweile auf fortgeschrittene Machine Learning-Modelle und hat eigene KI-Tools wie Gemini integriert. Dennoch scheitern diese Systeme regelmäßig an Kontext, Ironie oder eben politischer Kunst.

80 Minuten nach der Sperrung des Videos und des Accounts waren sowohl das Video wieder sichtbar als auch der Account wieder freigeschaltet – zweifellos das Ergebnis von massivem öffentlichen Druck. Eine plausible Begründung für die Sperrung gab es damals nicht. Wahrscheinlich hatte ein Algorithmus entschieden: Das geht so nicht – und den Stecker gezogen.

YouTube heute: Mehr Transparenz, gleiche Probleme

Inzwischen hat YouTube sein Transparency-Center ausgebaut und veröffentlicht quartalsweise Zahlen zu entfernten Inhalten. 2025 wurden weltweit über 2 Milliarden Videos und Kommentare gelöscht – 95 Prozent davon durch automatisierte Systeme. Das zeigt das Ausmaß der Herausforderung, aber auch die Dominanz der Algorithmen.

Die Plattform hat auch neue Beschwerdeverfahren eingeführt. Creator können gegen Sperrungen Einspruch einlegen, und es gibt spezielle Kanäle für Journalisten und Künstler. Doch die Grundproblematik bleibt: Wer definiert, was „problematisch“ ist?

YouTube entscheidet, was gezeigt werden darf

Der Digital Services Act als Hoffnungsschimmer

Seit 2024 greift in der EU der Digital Services Act (DSA), der Plattformen wie YouTube zu mehr Transparenz verpflichtet. Große Plattformen müssen ihre Moderations-Algorithmen offenlegen und Risikoanalysen durchführen. YouTube musste bereits mehrfach Berichte vorlegen, in denen erklärt wird, wie Content-Moderation funktioniert.

Trotzdem bleiben die Machtverhältnisse schief. Während problematische Inhalte für Kinder oft durchrutschen, reagieren Systeme hypersensibel bei politischen Inhalten. Ein klassisches Problem des „Over-Blocking“: Lieber zu viel löschen als zu wenig.

Alternative Plattformen und dezentrale Lösungen

Immerhin gibt es heute mehr Alternativen. Vimeo hat sich als Plattform für hochwertige Inhalte etabliert, während PeerTube als dezentrale, Open-Source-Alternative an Bedeutung gewinnt. Auch TikTok und Instagram Reels haben YouTube Konkurrenz gemacht – allerdings mit ähnlichen Moderations-Problemen.

Das Zentrum für politische Schönheit nutzt heute bewusst mehrere Kanäle parallel und hostet kritische Inhalte auf eigenen Servern. Eine Strategie, die mehr Künstler und Aktivisten verfolgen sollten.

Was bleibt: Algorithmen als Zensoren

YouTube ist und bleibt ein öffentlicher Raum – einer, den täglich zwei Milliarden Menschen nutzen. Gleichzeitig ist es ein privates, kommerzielles Unternehmen mit eigenen Interessen. Diese Dualität führt zu Konflikten, die sich nicht einfach auflösen lassen.

Der Fall des Mahnmals war ein Warnschuss. Heute, Jahre später, ist klar: Die Macht der Plattformen über den öffentlichen Diskurs ist noch gewachsen. Algorithmen entscheiden täglich darüber, welche politischen Inhalte wir sehen – und welche nicht. Das sollte uns alle beunruhigen.

Denn eines ist sicher: Wenn Maschinen darüber entscheiden, was Kunst ist und was nicht, was politisch vertretbar ist und was nicht, dann haben wir ein Problem. Ein Problem, das weit über YouTube hinausgeht.

https://vimeo.com/244041009

Zuletzt aktualisiert am 31.03.2026