Die EU macht Druck: Künftig sollen Jugendliche erst ab 16 Jahren auf Social Media dürfen. Was bedeutet das – und wie soll das überhaupt funktionieren?
Beim EU-Gipfel in Brüssel ist es gerade beschlossene Sache geworden: Die Staats- und Regierungschefs sprechen sich klar für Altersgrenzen auf Plattformen wie TikTok, Instagram und Facebook aus. Minderjährige sollen im digitalen Raum besser geschützt werden – und zwar durch ein einheitliches Mindestalter für den Zugang zu sozialen Medien. Klingt erst mal gut. Aber der Teufel steckt wie so oft im Detail.
Der Status quo: Ein ziemliches Durcheinander
Bisher ist die Situation reichlich verwirrend. Rein rechtlich liegt das Mindestalter in Deutschland bei 16 Jahren – so will es die Datenschutz-Grundverordnung (DSGVO). Die regelt nämlich, ab wann jemand der Verarbeitung personenbezogener Daten zustimmen darf. Und genau das passiert, wenn ihr einen Account bei Instagram, TikTok oder anderen Plattformen anlegt.
Aber halt: Die Plattformen selbst setzen meist nur 13 Jahre als Untergrenze fest. Instagram schreibt in seinen Nutzungsbedingungen ein Mindestalter von 13 Jahren vor. TikTok ebenso – theoretisch sollen Jugendliche unter 18 Jahren die Zustimmung ihrer Eltern einholen, aber mal ehrlich: Wer kontrolliert das schon?
Zwischen 13 und 16 Jahren brauchen Jugendliche also eigentlich die Einwilligung ihrer Eltern. Nur: Die meisten Plattformen erwähnen das in ihren AGB gar nicht. Und selbst wenn – eine echte Überprüfung findet praktisch nicht statt. Ihr könnt euer Geburtsdatum eingeben, was ihr wollt. Niemand checkt nach. Das Ergebnis: Auch 10-Jährige tummeln sich auf Instagram und TikTok, als wäre es das Normalste der Welt.

Von der Leyens Vorstoß: Social Media wie Alkohol und Tabak?
EU-Kommissionspräsidentin Ursula von der Leyen hat der Debatte jetzt ordentlich Feuer gegeben. Sie vergleicht mögliche Altersvorgaben für Social Media mit denen für Tabak und Alkohol. Ein starkes Bild – und eines, das polarisiert. Sind Instagram und TikTok wirklich so gefährlich wie Zigaretten?
Die Antwort hängt davon ab, wen ihr fragt. Fakt ist: Die Zahl psychischer Probleme bei Kindern und Jugendlichen steigt. Angststörungen, Depressionen, Essstörungen – das betrifft Millionen junger Menschen in Deutschland. Besonders nach Corona rückte das Thema in den Fokus. Und während nicht alle Experten sich einig sind, sehen viele einen Zusammenhang zur intensiven Nutzung sozialer Medien.
Von der Leyen nennt Australien als Vorbild. Dort ist es bereits beschlossene Sache: Ab 2025 dürfen Jugendliche erst ab 16 Jahren Plattformen wie X, TikTok, Facebook und Instagram nutzen. Die Australier machen ernst – mit echten Konsequenzen für Plattformen, die sich nicht daran halten.
Deutschland ist gespalten
Hierzulande ist man sich alles andere als einig. Bundesjustizministerin Stefanie Hubig (SPD) befürwortet ein Mindestalter von 16 Jahren. Auch Grünen-Chefin Franziska Brantner findet die Idee richtig. Die Union diskutiert das Thema intensiv – CDU-Politiker Jens Spahn formulierte es drastisch: „Wenn TikTok wie eine noch härtere Droge wirkt, müssen wir was tun.“
Aber es gibt auch Gegenstimmen. CSU-Chef Markus Söder argumentiert pragmatisch: Ein Verbot mache TikTok, Instagram und Co. eher noch interessanter für Jugendliche. Das kennen wir alle noch aus der eigenen Jugend – verbotene Früchte schmecken bekanntlich am süßesten.
In Deutschland hat die Regierung im September 2025 eine Expertenkommission eingesetzt. Die soll eine Strategie für den „Kinder- und Jugendschutz in der digitalen Welt“ erarbeiten. Auch die gesundheitlichen Folgen von Medienkonsum stehen auf dem Prüfstand. Eine Altersbegrenzung für TikTok, Instagram und Co. wird definitiv diskutiert.
Das Kernproblem: Wer soll das kontrollieren?
Hier kommen wir zum springenden Punkt. Selbst wenn die EU oder Deutschland morgen ein Mindestalter von 16 Jahren beschließt – wie soll das durchgesetzt werden? Die bisherigen Systeme sind lachhaft. Ihr tippt euer Geburtsdatum ein, fertig. Keine Verifizierung, keine Kontrolle.
Die EU-Kommission arbeitet angeblich an einer Verifizierungs-App zum Jugendschutz. Das Ziel: verlässliche Altersnachweissysteme für Inhalte, die nicht für Kinder und Jugendliche geeignet sind. Klingt gut, aber technisch ist das eine Mammutaufgabe.
Mögliche Lösungen könnten sein: Ausweiskontrollen per Video-Ident-Verfahren, wie man es vom Online-Banking kennt. Oder biometrische Altersschätzungen anhand von Selfies. Beide Varianten werfen massive Datenschutzfragen auf. Wollt ihr wirklich, dass TikTok eure Ausweisdaten oder biometrischen Merkmale hat?
Die Sache mit der Zuständigkeit
Beim EU-Gipfel gab es einen entscheidenden Zusatz: Die Mitgliedstaaten sprechen sich zwar für Altersgrenzen aus, wollen ihre nationalen Zuständigkeiten aber nicht an Brüssel abgeben. Mit anderen Worten: Jedes Land soll selbst entscheiden dürfen, wie es das Mindestalter regelt und durchsetzt.
Das könnte zu einem Flickenteppich führen. In Deutschland gelten andere Regeln als in Frankreich oder Polen. Für die Plattformen wird das zur Herausforderung – sie müssten für jedes Land unterschiedliche Systeme implementieren. Andererseits: Vielleicht ist das genau der richtige Weg. Lokale Lösungen für lokale Probleme.
Was Eltern jetzt tun können
Bis konkrete Regelungen kommen, liegt die Verantwortung bei euch als Eltern. Die gute Nachricht: Alle großen Plattformen haben mittlerweile Jugendschutz-Features eingebaut.
Instagram setzt Jugendliche automatisch auf restriktivere Inhaltseinstellungen. Eine Erinnerungsfunktion fordert sie nach 60 Minuten auf, die App zu schließen. Ein Nachtmodus verhindert Benachrichtigungen zwischen 22 Uhr und 7 Uhr morgens. Bei TikTok gibt es ähnliche Tools – etwa die Möglichkeit, Accounts zu verknüpfen und Bildschirmzeiten zu begrenzen.
Aber das Wichtigste ist und bleibt: Redet mit euren Kindern. Erklärt die Risiken. Interessiert euch für das, was sie online machen. Denn egal welche Gesetze kommen – die beste Kontrolle ist eine offene Kommunikation.
Fazit: Ein längst überfälliger Schritt
Die Diskussion um Altersgrenzen für Social Media ist überfällig. Zu lange haben wir zugeschaut, wie Plattformen ihre eigenen, kaum durchsetzbaren Regeln aufstellen. Zu lange wurde das Problem ignoriert.
Aber ein Mindestalter allein wird nicht die Lösung sein. Es braucht funktionierende Kontrollsysteme, die gleichzeitig die Privatsphäre schützen. Es braucht Medienkompetenz in Schulen und Familien. Und es braucht Plattformen, die endlich Verantwortung übernehmen – nicht nur auf dem Papier, sondern in der Praxis.
Die EU macht jetzt Druck. Das ist gut so. Aber am Ende entscheidet sich der Erfolg in der Umsetzung. Und da haben wir noch einen weiten Weg vor uns.

