Abgemagerte Körper, hervorstehende Rippen, 35 Kilo: Forscher werfen Instagram und TikTok vor, Jugendliche unzureichend vor Inhalten zu schützen, die Essstörungen verharmlosen oder verherrlichen. Trotz neuer KI-Filter bleibt das Problem dramatisch.
Wer strebt schon ein Körpergewicht von 35kg an und findet hervorstehende Rippen schön?
Es sind vor allem Menschen mit ausgeprägten Essstörungen. Meist junge Mädchen oder Frauen, die sich gegen jede Vernunft krank hungern. Frauen, die unter Anorexie leiden.
Auf Instagram und TikTok sind viele von diesen Frauen zu sehen. Sie präsentieren sich – und motivieren sich häufig gegenseitig, noch weiter abzunehmen. In Insiderkreisen werden solche Frauen „Thinfluencer“ genannt. Influencerinnen, die immer noch dünner werden wollen. Auf diese Weise entsteht eine gefährliche Sogwirkung: Jede einzelne sieht, was andere „erreichen“ und versuchen, noch dünner zu werden.
Die Situation hat sich 2025 sogar noch verschärft. Während Instagram und TikTok ihre KI-gestützten Content-Filter ausgebaut haben, sind die gefährlichen Communities einfach auf andere Plattformen wie BeReal, Threads oder in private Discord-Server ausgewichen. Gleichzeitig nutzen sie raffinierte Codewords und Emojis, um die automatischen Erkennungssysteme zu umgehen.
Ein Feldversuch: unheilvolle Spirale
Forscher des Projekts Reset (die ein Gegengewicht zu den großen Onlineriesen sein wollen) haben sich genau angeschaut, wie solche Mechanismen auf Instagram funktionieren. Ein gut dokumentierter Feldversuch. Die Forscher haben ein neues Instagram-Profil eröffnet und dort sechs (erschreckende) Fotos eines abgemagert Mädchens gepostet (die wir an dieser Stelle weder zeigen, noch verlinken wollen). Das hat schon gereicht, um innerhalb kürzester Zeit 900 Follower zu gewinnen.
Die User des Fake-Accounts haben vor allem Fotos anderer abgemagerter Mädchen präsentiert bekommen. Wer einigen wenigen Konten der Thinfluencer-Szene folgt, bekommt vom Algorithmus Aufnahmen aus dieser Blase angezeigt. Schlimmer noch: Selbst Werbung für Diäten erscheinen. Mädchen, die eigentlich dringend medizinische und psychologische Hilfe brauchen, werden angestachelt, weiter abzunehmen. Sie bekommen anorektische Körper gezeigt – und Diät-Pillen.
Das Netzwerk hilft den Betroffenen also nicht, sondern macht die Sache noch viel schlimmer.
2026 wiederholt durchgeführte Tests zeigen: Trotz aller Beteuerungen von Meta funktioniert der Empfehlungsalgorithmus noch genauso. Wer einmal in diese Blase gerät, wird regelrecht bombardiert mit problematischen Inhalten. Die KI erkennt das Interesse an „Fitness“ und „Abnehmen“ – unterscheidet aber nicht zwischen gesunden und krankhaften Inhalten.

Instagram unternimmt nicht genug
„Wir entfernen Inhalte, die Essstörungen verherrlichen oder Anregungen dazu geben“, behauptet der Konzern im Hilfebereich. Aber dass das nicht stimmt, davon kann sich jede/r selbst überzeugen, der oder die „Thin“ als Suchbegriff eingibt. Instagram gibt sich nicht genug Mühe, Fotos, Videos und Konten zu sperren, die eindeutig Anorexie begünstigen.
Doch Instagram blockt nicht nur nicht, sondern verbreitet die Inhalte sogar aktiv. Das zeigt das ungeheure Wachstum des Test-Accounts. Besonders perfide: Die neuen KI-Tools von Meta können solche Inhalte problemlos erkennen – werden aber offenbar nicht konsequent eingesetzt. Stattdessen investiert Meta Milliarden in das Metaverse, während die Schutzmaßnahmen für vulnerable Jugendliche stiefmütterlich behandelt werden.
Neue Entwicklungen verschärfen das Problem
Seit 2024 haben sich die Probleme durch mehrere Faktoren verstärkt:
KI-generierte Inhalte: Mit Tools wie Midjourney oder DALL-E erstellen User jetzt „perfekte“ dünne Körper, die noch extremer aussehen als echte Fotos. Diese synthetischen Bilder setzen völlig unrealistische Standards.
Live-Streams: Auf TikTok und Instagram Live zeigen Betroffene in Echtzeit ihr Essverhalten oder Workouts. Diese Live-Inhalte werden weniger moderiert und entgehen oft der automatischen Erkennung.
Micro-Communities: Private Telegram-Gruppen und Discord-Server werden als „sichere Räume“ beworben, sind aber völlig unmoderiert. Hier werden extreme Diät-Challenges und „Thinspiration“ geteilt.
Fitness-Apps als Trojanisches Pferd: Scheinbar harmlose Kalorienzähler-Apps werden gezielt missbraucht. In den Community-Bereichen dieser Apps finden sich dieselben problematischen Inhalte.
Was Expert*innen fordern
„Was wir brauchen, sind Gesetze, die nicht nur sicherstellen, dass Sicherheitsmaßnahmen für Kinder vorhanden sind, sondern auch, dass sie tatsächlich funktionieren“, fordern die Forscher von Reset – und haben damit völlig Recht.
Der EU Digital Services Act von 2024 war ein erster Schritt, greift aber noch zu kurz. Expert*innen fordern:
- Verpflichtende Transparenz bei Empfehlungsalgorithmen
- Externe Audits der KI-Moderationssysteme
- Altersverifikation für besonders vulnerable Inhalte
- Kooperationen mit Beratungsstellen statt nur Löschungen
Das ist mit den „toxischen Körperbildern“ gemeint, die Whistleblowerin Frances Haugen bei den Anhörungen beklagt hat. Das Schlimme ist – und das belegen die geleakten Dokumente: Das Management von Facebook und Instagram weiß um die dramatische Situation. Unternimmt aber trotzdem nichts. Umsatz ist wichtiger.
Interne Meta-Dokumente aus 2025 zeigen: Das Unternehmen ist sich bewusst, dass gerade vulnerable Jugendliche besonders „engagement-stark“ sind – sie verbringen mehr Zeit auf der Plattform. Ein zynisches Geschäftsmodell auf Kosten der Gesundheit.
Was ihr tun könnt
Als Eltern oder Betroffene seid ihr nicht machtlos:
- Aktiviert die Inhaltsfilter in den Plattform-Einstellungen (auch wenn sie unvollständig sind)
- Meldet problematische Inhalte konsequent
- Informiert euch über Warnsignale von Essstörungen
- Nutzt vertrauensvolle Beratungsangebote wie die Bundeszentrale für gesundheitliche Aufklärung
Die Plattformen werden ihre Verantwortung nur übernehmen, wenn der gesellschaftliche und rechtliche Druck groß genug wird. Bis dahin bleibt Aufmerksamkeit und kritisches Hinterfragen der beste Schutz.
So funktionieren die Mechanismen von Thinstagram
Zuletzt aktualisiert am 23.02.2026