Der Jugendschutz im Internet ist nach wie vor mangelhaft. Trotz der Reform des Jugendschutzgesetzes von 2021 und verschiedener Nachbesserungen bleiben große Lücken. Kinder und Jugendliche sind weiterhin Cybermobbing, Abzocke und gefährlichen Inhalten ausgesetzt. Zeit für eine ehrliche Bestandsaufnahme – und neue Ansätze.
Das Internet bleibt ein wilder Westen für Minderjährige. Trotz aller Reformen der vergangenen Jahre ist der Schutz von Kindern und Jugendlichen online noch immer unzureichend. Die 2021 beschlossene Reform des Jugendschutzgesetzes sollte endlich Ordnung schaffen – doch die Realität sieht anders aus.
Die Zahlen sind ernüchternd: Laut aktuellen Studien erleben mittlerweile über 50 Prozent der 12- bis 19-Jährigen Cybermobbing, Belästigung oder Bedrängung in sozialen Medien. Gleichzeitig steigt die Zahl problematischer Online-Glücksspiele und In-App-Käufe in Games kontinuierlich an.
Dabei sind die Probleme bekannt: Große Plattformen wie TikTok, Instagram, YouTube, Discord und Twitch erreichen Millionen von Minderjährigen täglich. Doch viele der ursprünglich geplanten Schutzmaßnahmen greifen nicht oder werden unzureichend durchgesetzt.
KI macht neue Probleme sichtbar
Seit 2023 sind neue Risiken hinzugekommen: KI-generierte Deepfakes von Minderjährigen, manipulierte Bilder und Videos sowie Chatbots, die gezielt Kinder ansprechen. Diese Technologien waren bei der letzten Gesetzesreform noch nicht absehbar.
Besonders problematisch: Auf Plattformen wie Discord oder in Gaming-Communities werden Minderjährige oft gezielt von Erwachsenen angesprochen. Die sogenannte „Sextortion“ – also die Erpressung mit intimen Bildern – hat sich zu einem Massenphänomen entwickelt.
Die EU hat mit dem Digital Services Act (DSA) seit 2024 schärfere Regeln eingeführt. Sehr große Online-Plattformen müssen nun Risikobewertungen durchführen und Schutzmaßnahmen implementieren. Doch die Umsetzung läuft schleppend.
Gaming: Glücksspiel für Kinder wird zum Milliardengeschäft
Besonders dramatisch ist die Entwicklung im Gaming-Bereich. Lootboxen, Gacha-Mechanismen und In-Game-Gambling haben sich weiter ausgebreitet. Viele Spiele nutzen mittlerweile ausgeklügelte psychologische Tricks, um Kinder zu Käufen zu verleiten.

Die Bundeszentrale für Kinder- und Jugendmedienschutz (BzKJ) hat zwar ihre Kompetenzen ausgebaut, doch gegen internationale Konzerne ist sie oft machtlos. Wenn ein Spiel seinen Server in einem anderen Land betreibt, wird die Durchsetzung deutscher Gesetze schwierig.
Neue Trends wie NFT-Games oder Krypto-Belohnungen in Spielen schaffen weitere Grauzonen. Hier verschwimmen die Grenzen zwischen Gaming und Finanzspekulation – oft ohne dass Minderjährige die Risiken verstehen.
Plattformen ignorieren eigene Regeln
Das größte Problem: Selbst dort, wo klare Regeln existieren, werden sie oft nicht durchgesetzt. Instagram und TikTok haben zwar Jugendschutz-Features eingeführt, aber viele Nutzer umgehen diese einfach durch falsche Altersangaben.
Die Altersverifikation bleibt ein ungelöstes Problem. Während in anderen Bereichen längst biometrische oder KI-basierte Lösungen Standard sind, verlassen sich Social Media-Plattformen weiterhin auf Selbstauskünfte.
Auch die Beschwerdemechanismen funktionieren mangelhaft. Berichte über Cybermobbing oder inappropriate Content werden oft ignoriert oder viel zu spät bearbeitet. Automatisierte Systeme erkennen subtilere Formen der Belästigung nicht.
Eltern sind überfordert – Schulen unterausgestattet
Das Problem verschärft sich, weil viele Eltern mit der digitalen Entwicklung nicht Schritt halten. Während ihre Kinder auf Plattformen wie BeReal, Snapchat oder in VR-Welten wie VRChat unterwegs sind, kennen viele Erziehungsberechtigte diese Dienste nicht einmal.
Parental Control-Software ist oft umständlich oder wird von technikaffinen Jugendlichen umgangen. Apple und Google haben zwar ihre Jugendschutz-Tools verbessert, aber diese müssen erst aktiviert und richtig konfiguriert werden.
Auch Schulen sind überfordert. Medienkompetenz steht zwar in vielen Lehrplänen, aber die konkrete Umsetzung hängt oft vom Engagement einzelner Lehrkräfte ab.
Zuständigkeits-Chaos behindert Durchsetzung
Ein Kernproblem bleibt die Zuständigkeitsverteilung. Die Landesmedienanstalten, die BzKJ, verschiedene Aufsichtsbehörden – niemand fühlt sich richtig verantwortlich. Bei internationalen Plattformen wird es noch komplizierter.
Während die EU mit dem DSA einen einheitlicheren Ansatz versucht, agiert Deutschland weiterhin mit einem Flickenteppich verschiedener Institutionen. Das führt dazu, dass Verstöße oft monatelang unbearbeitet bleiben.
Besonders absurd: Manche Streaming-Dienste werden von der Medienaufsicht überwacht, ähnliche Inhalte auf YouTube aber nicht. Je nach technischer Ausgestaltung können völlig unterschiedliche Regeln gelten.
Was wirklich helfen würde
Effektiver Jugendschutz braucht mehrere Ansätze: Bessere technische Lösungen zur Altersverifikation, einheitliche Zuständigkeiten und vor allem mehr Aufklärung. KI-Systeme könnten problematische Inhalte schneller erkennen – wenn die Plattformen diese auch einsetzen würden.
Außerdem sollten Eltern und Schulen viel stärker unterstützt werden. Medienkompetenz darf nicht dem Zufall überlassen bleiben. Und die Politik muss endlich bereit sein, auch gegen große Tech-Konzerne konsequent durchzugreifen – notfalls mit empfindlichen Strafen.
Der Jugendschutz im Netz ist kein unlösbares Problem. Aber er braucht mehr als symbolische Gesetze und zahnlose Behörden.
Zuletzt aktualisiert am 27.02.2026
