Die EU-Kommission hat schon 2016 den führenden Online-Diensten Facebook, Twitter, Google und Microsoft einen Verhaltenskodex abgerungen. Die Anbieter verpflichteten sich damals, Hass-Kommentare aus dem Netz zu nehmen – wenn sich jemand daran stört und die Anbieter informiert. Doch fast ein Jahrzehnt später zeigt sich: Die Anforderungen waren derart wachsweich formuliert, dass sich wenig geändert hat. Trotz neuer Gesetze wie dem Digital Services Act bleibt das Problem akut.
Es ist schon viel über Hass-Kommentare in sozialen Medien gesagt und geschrieben worden. Viel – aber offensichtlich nicht genug. Denn das Problem ist heute größer denn je. Klar, Hate Speech gibt es nicht nur auf Facebook, sondern auch auf Twitter (jetzt X), YouTube, Instagram, TikTok, Telegram, in Blogs und Foren – einfach überall. Und durch KI-generierte Inhalte wird es noch komplizierter.
Das bringt mich zu einem wichtigen Punkt: Soziale Medien wie Meta, X und Co. haben ein hohes Maß an Verantwortung, eben weil sie nicht nur Plattform sind, sondern auch Medium. Alles, was gesagt, geschrieben oder gepostet wird, hat das Potenzial, millionenfach gelesen zu werden. Intelligente, verantwortungsvolle Texte stehen da bedauerlicherweise in Konkurrenz zu dümmlichen, gefährlichen und verantwortungslosen Texten – und die werden sogar öfter gelesen, weil sie die niederen Instinkte ansprechen.
KI macht Moderation noch schwieriger
Das allein spricht schon gegen ungefilterte soziale Medien: Dummheit gewinnt hier leicht die Überhand. Anders als bei einer Zeitung, in einem Radio-Sender oder im Fernsehen entscheidet zunächst niemand, was öffentlich zugänglich sein soll und was nicht. Erst mal ist nahezu alles potenziell geeignet, öffentlich gesehen zu werden.
Erst wenn es Proteste oder Beschwerden gibt, wird vielleicht mal etwas wieder entfernt. Wir wissen, wie lange sich Meta dagegen gewehrt hat, angemessen auf Hass-Kommentare zu reagieren. Und heute kommt erschwerend hinzu: KI kann Hate Speech in Sekundenschnelle in verschiedenste Sprachen übersetzen oder durch leichte Variationen Erkennungsalgorithmen austricksen.
Besonders problematisch: Deepfakes und KI-generierte Hassrede werden immer raffinierter. Was früher mühsam getippt werden musste, produziert heute eine KI in Sekunden – personalisiert und zielgruppengenau.
Digital Services Act: Neue Hoffnung?
Seit 2024 gilt in der EU der Digital Services Act (DSA). Er verpflichtet große Plattformen zu mehr Transparenz und schärferen Maßnahmen gegen illegale Inhalte. Theoretisch ein Fortschritt gegenüber dem zahnlosen Verhaltenscodex von 2016.
Die Realität sieht anders aus: Meta, X und Co. setzen weiterhin primär auf automatisierte Systeme, die oft überfordert sind. Besonders bei subtiler Hassrede, Ironie oder kulturellen Kontexten versagen die Algorithmen regelmäßig. Menschliche Moderatoren gibt es zu wenige – und die sind oft schlecht bezahlt und unzureichend geschult.
Elon Musks X: Rückschritt statt Fortschritt
Besonders drastisch zeigt sich das Problem bei X (ehemals Twitter). Seit Elon Musks Übernahme 2022 wurden Moderationsteams radikal zusammengestrichen. Das Ergebnis: Hate Speech und Desinformation explodieren förmlich auf der Plattform.
Musk rechtfertigt das mit „absoluter Meinungsfreiheit“ – übersieht aber, dass ungefilterte Hassrede andere Stimmen zum Verstummen bringt. Viele Nutzer haben X bereits den Rücken gekehrt und sind zu Alternativen wie Mastodon, Bluesky oder Threads gewechselt.
Doch auch diese neuen Plattformen stehen vor denselben Herausforderungen: Wie moderiert man Millionen von Posts täglich, ohne die Meinungsfreiheit zu beschneiden?
TikTok und die Jugend
Besonders brisant: Hate Speech verlagert sich zunehmend auf Plattformen wie TikTok, die vor allem von Jugendlichen genutzt werden. Hier werden Hassbotschaften oft in vermeintlich harmlose Videos verpackt oder durch Codes und Anspielungen verschleiert.
Das macht die Moderation extrem schwierig. Während ein direkter Hasskommentar noch relativ einfach zu erkennen ist, erfordern subtile Formen der Diskriminierung tiefes Verständnis von Jugendsprache, Memes und aktuellen Trends.
Politik zwischen Anspruch und Realität
Die Politik tut sich nach wie vor schwer mit dem Thema. Der DSA ist zwar ein Schritt in die richtige Richtung, aber die Durchsetzung hinkt hinterher. Bußgelder werden zwar angedroht, aber nur selten verhängt. Die Plattformen wissen das – und kalkulieren mögliche Strafen einfach als Geschäftsrisiko ein.
Gleichzeitig fehlen klare Standards: Was genau ist Hate Speech? Wo hört legitime Kritik auf, wo fängt Beleidigung an? Diese Fragen sind kulturell und rechtlich komplex – und lassen sich nicht einfach in Algorithmen übersetzen.
Was wirklich helfen würde
Statt weicher Selbstverpflichtungen brauchen wir härtere Maßnahmen: Klare gesetzliche Definitionen, ausreichend Personal für die Moderation und echte Konsequenzen für Plattformen, die ihrer Verantwortung nicht nachkommen.
Außerdem müssen wir als Gesellschaft lernen: Jeder Like, jeder Share, jeder Kommentar ist eine Entscheidung. Wer Hate Speech ignoriert oder sogar weiterverbreitet, macht sich mitschuldig.
Die Techkonzerne werden ihre Verantwortung nur dann ernst nehmen, wenn der gesellschaftliche und politische Druck groß genug ist. Bis dahin bleibt das Netz leider ein Ort, an dem Hass oft lauter ist als Vernunft.
Zuletzt aktualisiert am 08.04.2026



