Zwei völlig unterschiedliche Medienmarken – aber das gleiche Schicksal: Playboy Deutschland und die Deutsche Aidshilfe wurden vor wenigen Tagen plötzlich und ohne Vorankündigung von Facebook und YouTube blockiert.
Einfach abgeschaltet. Der Playboy mit fast zwei Millionen Followern, die Aidshilfe mit ihrem wichtigen Präventionskanal – beide verschwanden über Nacht.
Was bei Meta und Google passiert, entscheidet oft ein Algorithmus oder ein unterbezahlter Moderator in Manila. Transparenz? Fehlanzeige. Widerspruch? Schwierig. Es kann für Betroffene wirtschaftlich fatal sein, wenn plötzlich der komplette Kanal gesperrt wird.

Die erschreckende Realität der Content-Moderation
Hinter den glatten Oberflächen von Facebook, Instagram und YouTube verbirgt sich eine Maschinerie der Content-Moderation, die in ihren Dimensionen erschreckt. Weltweit arbeiten geschätzt 150.000 Menschen als Content-Moderatoren – die meisten davon in Entwicklungsländern wie den Philippinen oder in Südosteuropa. Allein auf den Philippinen sollen bis zu 150.000 Menschen in dieser Branche tätig sein.
Diese Moderatoren sitzen in großen Fabrikhallen und müssen bis zu 25.000 Bilder oder Posts pro Schicht bewerten – für ein bis drei Dollar pro Stunde. Innerhalb von acht Sekunden müssen sie entscheiden: löschen oder nicht, blockieren oder nicht. Ihre Einweisung dauert drei bis fünf Tage, dann müssen sie 100 Seiten komplexer Richtlinien befolgen.
Es liegt auf der Hand, dass solche Entscheidungen unmöglich fach- und sachgerecht sein können. Dazu kommen Algorithmen und KI-Systeme, die automatisch Content scannen, aber oft Probleme mit Kontext, Ironie oder kulturellen Unterschieden haben. Das Ergebnis: häufig willkürliche Entscheidungen, die kaum jemand nachvollziehen kann.

Wenn Algorithmen über Aufklärung urteilen
Die beiden aktuellen Fälle zeigen das gleiche fatale Muster: Bei Playboy Deutschland verschwand die Facebook-Seite mit 1,9 Millionen Followern am 2. Juni ohne Vorwarnung. Meta erklärte später lapidar, es habe „Hinweise auf betrügerische Aktivitäten“ gegeben – eine absurde Begründung. In Wahrheit hat sich vermutlich irgendein Filter an zu viel nackter Haut gestört.
Noch absurder war der Fall der Deutschen Aidshilfe: YouTube löschte Anfang Juni den Präventionskanal „ICH WEISS WAS ICH TU“ wegen angeblicher Verstöße gegen Richtlinien zu „Sex und Nacktheit“. Ausgerechnet einen Kanal, der vom Bundesinstitut für öffentliche Gesundheit gefördert wird und wissenschaftlich fundierte Aufklärung betreibt.
In beiden Fällen gab es wochenlang keine vernünftige Erklärung. Erst nach öffentlichem Druck und Medienberichten wurden die Blockierungen wieder aufgehoben – aber die grundsätzliche Willkür bleibt bestehen.

Die Macht der digitalen Monopole
Die Macht dieser Tech-Konzerne ist gigantisch und wächst täglich. Facebook hat 3 Milliarden Nutzer, YouTube gehört zu Google – das sind faktische Monopole im digitalen Raum. Wenn sie eine komplette Seite blockieren, kann sich das wie ein Berufsverbot auswirken – zumindest für Menschen, die ausschließlich oder vor allem online verkaufen.
Denken wir an die tausenden Selbständigen, Influencer oder kleine Unternehmen, die komplett von ihren Social-Media-Accounts abhängen. Für viele ist Instagram oder TikTok die einzige Verkaufsplattform. Eine Sperrung bedeutet oft das wirtschaftliche Aus oder zumindest existenzbedrohende Verluste.
Besonders absurd wird es, wenn die Nutzungsbedingungen von Meta oder Google faktisch über nationalem Recht stehen. Was in Deutschland völlig legal ist – wie Aufklärung über Sexualität oder künstlerische Darstellungen –, kann trotzdem gelöscht werden, weil es den Community-Richtlinien aus Kalifornien widerspricht. Das gilt sogar für klassische Kunstwerke.
Rechtliche Entwicklungen: Der Digital Services Act
Rein rechtlich war diese Willkür lange Zeit völlig legal – es sind private Unternehmen, die ihre eigenen Hausregeln durchsetzen. Doch seit 2024 gilt in der EU der Digital Services Act (DSA), der mehr Transparenz und Rechenschaftspflicht fordert. Plattformen müssen ihre Entscheidungen begründen und Widerspruchsmöglichkeiten schaffen.
Der DSA verlangt auch, dass sehr große Plattformen ihre Algorithmen offenlegen und Nutzer vor gezielter Werbung schützen. Das Problem: Die Umsetzung hinkt erheblich hinterher. Die Konzerne mauern oft oder erfüllen nur das absolute Minimum der Anforderungen.
Was sich ändern muss
Zunächst brauchen wir echte Transparenz. Jede Blockierung oder Löschung muss ausführlich und nachvollziehbar begründet werden – nicht mit Phrasen wie „Verstößt gegen Community-Richtlinien“, sondern konkret und verständlich. Es müssen einfache Widerspruchsverfahren geschaffen werden, die schnell und fair bearbeitet werden.
Die unterbezahlten Moderatoren in Manila und anderen Standorten brauchen bessere Arbeitsbedingungen, mehr Zeit für Entscheidungen und psychologische Betreuung. Das ist nicht nur eine Frage der Fairness, sondern auch der Qualität der Entscheidungen.
Langfristig brauchen wir echte Alternativen zu den US-Monopolen. Europa diskutiert über einen eigenen Social-Media-Dienst – das wäre wichtig für die digitale Souveränität. Bis dahin müssen wir die bestehenden Konzerne konsequent zur Verantwortung ziehen.
Ein Blick in die Zukunft
Die Politik muss den Digital Services Act mit Zähnen bewaffnen – höhere Strafen, konsequentere Durchsetzung und regelmäßige Kontrollen. Denn eines ist klar: Meinungsfreiheit und die Existenz von Millionen von Content-Erstellern dürfen nicht vom Wohlwollen privater Konzerne und fehlerhaften Algorithmen abhängen.
Die Fälle von Playboy Deutschland und der Deutschen Aidshilfe sind nur die Spitze des Eisbergs. Täglich werden weltweit Inhalte gelöscht und Accounts gesperrt – oft zu Unrecht, aber meist ohne Konsequenzen für die Plattformen. Es ist höchste Zeit, dass sich das ändert.