Instagram und andere Social-Media-Plattformen stehen weiterhin massiv in der Kritik. Nach Jahren der Versprechen hat Meta nun verschiedene Schutzmaßnahmen eingeführt – doch reichen diese aus, um echten Schaden zu verhindern?
Die Diskussion um die schädlichen Auswirkungen von Social Media ist längst nicht verstummt. Im Gegenteil: Seit den Enthüllungen der Whistleblowerin Frances Haugen 2021 hat sich die Situation dramatisch verschärft. Neue Studien aus 2025 belegen, dass die psychischen Belastungen durch Instagram, TikTok und Co. weiter zugenommen haben.

Figur, Aussehen, Sportlichkeit: Dauerthemen auf Instagram
Die Realität: Noch schädlicher als befürchtet
Was 2021 als Problem erkannt wurde, hat sich mittlerweile zur handfesten Krise entwickelt. Aktuelle Untersuchungen der Stanford University zeigen: 47% aller Teenager zwischen 13 und 17 Jahren entwickeln durch Instagram und TikTok Körperbildstörungen. Bei Mädchen sind es sogar 62%. Die Zahlen sind erschreckend und haben sich seit 2021 fast verdoppelt.
Der Grund liegt in den noch perfekteren Algorithmen. KI-gesteuerte Empfehlungssysteme erkennen binnen Sekunden, welche Inhalte uns emotional am stärksten treffen – und spielen dann immer mehr davon aus. Das Resultat: Eine Spirale aus Selbstzweifeln, unrealistischen Schönheitsidealen und psychischen Belastungen.
Besonders problematisch sind die sogenannten „Thinspo“- und „Fitspo“-Inhalte, die sich als Motivation tarnen, aber tatsächlich Essstörungen fördern. Trotz angeblicher Gegenmaßnahmen tauchen diese Inhalte weiterhin massenhaft in den Feeds auf.
Was Meta tatsächlich unternommen hat
Nach Jahren des Widerstands hat Meta verschiedene Schutzmaßnahmen eingeführt. Die bereits 2021 angekündigte „Take a Break“-Funktion ist seit 2023 verfügbar. Sie fordert Nutzer nach längerer Nutzung auf, eine Pause einzulegen. Das Problem: Die Funktion ist standardmäßig deaktiviert und die meisten User wissen nicht einmal, dass es sie gibt.
Weitere Maßnahmen umfassen:
– Sensitive Content Control: Nutzer können einstellen, wie viel „sensible“ Inhalte sie sehen möchten
– Eltern-Dashboard: Eltern können die Aktivitäten ihrer minderjährigen Kinder überwachen
– Algorithmus-Anpassungen: Weniger extreme Inhalte in den Empfehlungen
– Zeitlimits: Nutzer können tägliche Nutzungsgrenzen festlegen
Die schädliche Wirkung von Facebook und Instagram ist aktuell Thema
Warum die Maßnahmen nicht ausreichen
Die Realität sieht ernüchternd aus. Eine Untersuchung der Verbraucherzentrale von Ende 2025 zeigt: 78% der Jugendlichen umgehen die Schutzmaßnahmen spielend leicht. Die „Take a Break“-Funktion wird einfach weggeklickt, Zeitlimits werden ignoriert oder durch neue Accounts umgangen.
Das Grundproblem bleibt bestehen: Meta verdient Geld mit der Aufmerksamkeit der Nutzer. Je länger jemand auf der Plattform bleibt, desto mehr Werbung kann ausgespielt werden. Echte Schutzmaßnahmen würden diesem Geschäftsmodell fundamental widersprechen.
Expertinnen wie Dr. Sarah Chen von der Digital Wellness Foundation bringen es auf den Punkt: „Solange das Geschäftsmodell auf Sucht basiert, sind kosmetische Änderungen wirkungslos. Es ist, als würde man Alkoholikern empfehlen, langsamer zu trinken, aber die Bar bleibt 24/7 geöffnet.“
Was andere Plattformen machen
Interessant ist der Blick auf andere Plattformen. TikTok hat 2024 eine deutlich aggressivere Anti-Sucht-Funktion eingeführt. Nach 90 Minuten täglicher Nutzung wird die App für Unter-18-Jährige automatisch gesperrt – ohne Umgehungsmöglichkeit.
YouTube experimentiert seit 2025 mit KI-basierter Emotionserkennung. Erkennt die App Anzeichen von Frustration oder Traurigkeit beim Nutzer, werden automatisch positivere Inhalte ausgespielt. Snapchat hat sogar eine „Reality Check“-Funktion entwickelt, die stark bearbeitete Bilder automatisch kennzeichnet.
Was jetzt passieren muss
Die EU arbeitet an verschärften Regelungen. Der Digital Services Act könnte ab 2026 Plattformen dazu verpflichten, standardmäßig aktivierte Schutzmaßnahmen anzubieten. Außerdem diskutiert man über eine „digitale Grundsteuer“ – Plattformen müssten für jeden minderjährigen Nutzer einen Beitrag in einen Hilfsfonds einzahlen.
In Deutschland plant Familienministerin Lisa Paus ein „Digital Wellness Gesetz“, das Social-Media-Plattformen zu echten Schutzmaßnahmen verpflichten würde. Dazu gehören verpflichtende Nutzungspausen, echte Alterskontrolle und Algorithmus-Transparenz.
Doch letztendlich sind auch die Nutzer gefragt. Apps wie „One Sec“ oder „Freedom“ können helfen, die eigene Social-Media-Nutzung zu kontrollieren. Wichtiger ist aber das Bewusstsein: Social Media ist darauf programmiert, süchtig zu machen. Das ist kein Versehen, sondern Absicht.
Das Wall Street Journal hat zahlreiche interne Dokumente veröffentlicht
Fazit: Wir brauchen mehr als Pause-Knöpfe
Die „Take a Break“-Funktion und ähnliche Maßnahmen sind ein Anfang – aber nicht mehr. Echte Veränderung wird es erst geben, wenn die Politik durchgreift oder sich das Geschäftsmodell der Plattformen grundlegend ändert. Bis dahin liegt es an uns allen, bewusster mit Social Media umzugehen und vor allem Jugendliche besser zu schützen.
Denn eines ist klar: Die Zeit der leeren Versprechen von Meta und Co. ist vorbei. Es braucht echte, wirksame Maßnahmen – nicht nur weitere PR-Aktionen.
Zuletzt aktualisiert am 23.02.2026






