Wenn wir in den Sozialen Medien anstößige Inhalte sehen und auf „Melden“ klicken, muss sich irgend jemand die Inhalte anschauen – und entscheiden. Diese Aufgabe übernehmen schlecht bezahlte Content-Moderatoren, die den geistigen Unrat einer durch und durch vernetzten Gesellschaft zu Gesicht bekommen. Wie gehen sie mit dieser Belastung um? Eine bedrückende Dokumentation gewährt Einblicke.
Facebook, YouTube, X (ehemals Twitter), TikTok und Co. sind heute für viele zu einer Art seelischen Müllkippe verkommen. Im Schatten der Anonymität hauen manche in die Öffentlichkeit, was immer ihnen einfällt. Die Sozialen Medien – der Orkus der modernen Gesellschaft. Zumindest auch.
Texte, Bilder, Videos, KI-generierte Deepfakes – das Spektrum des Grauens ist groß. Ob blanke Wut, Aufruf zur Gewalt, Volksverhetzung, Pornografie, Brutalität, Perversion oder Terror: Die sogenannten Sozialen Netzwerke werden jeden Tag geflutet mit unerträglichen Inhalten. Seit 2024 hat sich das Problem durch generative KI noch verschärft – realistische Fake-Videos und perfide manipulierte Inhalte überlasten die Moderationssysteme zusätzlich.

jessebridgewater / Pixabay
Irgendjemand muss sich das alles anschauen
Wir alle wissen, wie unzureichend die Filtermechanismen funktionieren. Die Netze sind voll mit Unrat jeder Art – und damit meine ich nicht nur Enthauptungsvideos, sondern auch alles andere, das in öffentlich zugänglichen Medien nichts zu suchen hat. Während Nacktheit nach wie vor absurd konsequent gefiltert wird (Facebook blockiert weiterhin weltberühmte Kunstwerke, weil sie nackte Menschen zeigen), schaffen es viele andere Inhalte problemlos, sichtbar zu sein – und zu bleiben.
Obwohl sich KI-basierte Moderationssysteme seit 2018 deutlich verbessert haben und mittlerweile auch komplexere Inhalte erkennen können, bleibt die menschliche Komponente unverzichtbar. Wenn wir bei Meta, YouTube und Co. einen Inhalt als „unangemessen“ melden, per Fingertipp oder Klick, dann müssen sich nach wie vor Menschen das anschauen. Menschen! Sie entscheiden in Sekundenbruchteilen, ob Inhalte anstößig sind oder nicht. Klick. Anstößig, Klick. OK. Klick. Pervers. Klick. Niedlich.
Content-Moderation: Ein Milliardengeschäft im Schatten
Es sind „Cleaner“ oder Content-Moderatoren, die im Auftrag der US-Megakonzerne den seelischen Unrat anschauen (müssen). Tag für Tag. Stundenlang. Den ganzen Tag bekommen sie Dinge zu sehen, die verstörend sein können – wie es so schön heißt -, wenn wir sie nur einmal kurz sehen. Die Cleaner sehen so etwas den ganzen Tag. Es sind natürlich keine hochbezahlten Uni-Absolventen in Kalifornien oder Hipster in Berlin, die diesen Job erledigen, sondern gering bezahlte Clickworker aus Indien, Manila und mittlerweile auch afrikanischen Ländern wie Kenia.
2025 hat sich die Situation für Content-Moderatoren paradoxerweise verschlechtert: Während die Tech-Konzerne Milliarden in KI-Entwicklung stecken, sparen sie gleichzeitig bei den menschlichen Moderatoren. Elon Musks Kahlschlag bei X war nur der Anfang – auch Meta und andere Plattformen haben ihre Moderationsteams drastisch reduziert. Das Ergebnis: Weniger Menschen müssen noch mehr verstörende Inhalte bearbeiten.
Empfehlenswerter Dokumentarfilm – zeitloser denn je
Die beeindruckende, fesselnde und auch bedrückende Dokumentation Im Schatten der Netzwelt: The Cleaners ist zeitloser denn je. Der Film, ursprünglich 2018 bei Arte gezeigt, kann heute auf verschiedenen Streaming-Plattformen und in Mediatheken angeschaut werden. Ich kann nur jedem empfehlen, sich die Dokumentation anzuschauen. Denn wer die Sozialen Netzwerke nutzt, der ist auch für diese Menschen mitverantwortlich, die im wahrsten Sinne des Wortes die Drecksarbeit machen.
Die dunkle Seite der KI-Revolution
Während uns die Tech-Konzerne 2026 weismachen wollen, dass KI die Lösung aller Moderationsprobleme sei, zeigt die Realität ein anderes Bild. Ja, KI kann mittlerweile auch subtile Hassrede und manipulierte Inhalte erkennen. Aber sie versagt regelmäßig bei Kontext, Ironie oder kulturellen Nuancen. Und sie kann nicht die ethischen Graubereiche bewerten, in denen sich ein Großteil der problematischen Inhalte bewegt.
Gleichzeitig erzeugt die KI-Revolution neue Probleme: Deepfake-Pornos, KI-generierte Hassrede und perfekt imitierte Falschnachrichten überfordern sowohl Algorithmen als auch menschliche Moderatoren. Die Cleaner von heute müssen nicht nur klassischen Unrat aussortieren, sondern auch immer perfekter werdende KI-Fakes identifizieren.
Was bedeutet das für uns?
Jedes Mal, wenn ihr „Melden“ klickt, solltet ihr daran denken: Irgendwo auf der Welt schaut sich ein unterbezahlter Mensch euren gemeldeten Inhalt an. Oft unter Zeitdruck, oft ohne psychologische Betreuung, oft mit traumatisierenden Folgen. Die schöne neue Welt der sozialen Medien funktioniert nur, weil Menschen im globalen Süden den psychischen Preis dafür zahlen.
Die Dokumentation „The Cleaners“ macht das auf eindringliche Weise deutlich – und ist heute relevanter denn je. Denn während die Technologie rasant voranschreitet, bleiben die menschlichen Kosten unserer vernetzten Welt bestehen.
Zuletzt aktualisiert am 08.03.2026
