Was das Internet einmal hat, das gibt es nicht wieder her – heißt es. Stimmt aber nicht immer. Google und andere Tech-Riesen haben zuletzt verschiedene Maßnahmen für besseren Jugendschutz eingeführt: Kinderfotos lassen sich einfacher aus der Suche entfernen, KI-Tools überwachen problematische Inhalte und neue EU-Gesetze zwingen Plattformen zum Handeln. Doch reicht das wirklich?
Kinder und Jugendliche sind digital natives – sie bewegen sich selbstverständlich in sozialen Netzwerken, auf Video-Plattformen und in Gaming-Communities. Doch vernünftiger Jugendschutz? Fehlanzeige. Trotz verschärfter Gesetze wie dem Digital Services Act können sich Kids weiterhin überall anmelden, beim Alter schummeln und landen ungefiltert in den Untiefen des Internets.

Google erweitert Jugendschutz-Funktionen
Immer wieder verkünden die Tech-Giganten stolz neue Jugendschutz-Maßnahmen – meist sind es aber nur kosmetische Korrekturen. Google hat seine Bemühungen seit 2024 deutlich ausgeweitet: Die Entfernung von Kinderfotos aus der Suche funktioniert mittlerweile binnen weniger Stunden statt Wochen.
Die Funktion ist simpel: Entdecken Eltern oder Jugendliche unpassende Bilder in den Suchergebnissen, können sie über ein spezielles Formular die Entfernung beantragen. Google löscht diese dann aus dem Such-Index – das Bild verschwindet also aus den Treffern, existiert aber weiterhin auf der ursprünglichen Website.
Neu seit 2025: Googles KI erkennt automatisch potenzielle Kinderfotos und markiert sie für eine beschleunigte Bearbeitung. Zusätzlich wurden die Kriterien erweitert – auch Bilder von Schulveranstaltungen oder Sportvereinen können jetzt entfernt werden, wenn Eltern das wünschen.
YouTube verschärft Regeln für junge Nutzer
Bei YouTube gibt es ebenfalls Neuerungen: Videos von Nutzern unter 16 werden automatisch auf „privat“ gestellt. Das System erkennt mittlerweile auch verdächtige Altersangaben besser – wer sich als 13-Jähriger anmeldet, aber Inhalte für Erwachsene konsumiert, wird genauer überprüft.

YouTube Kids wurde 2025 komplett überarbeitet: Aggressive Werbung für Spielzeug ist weitgehend verschwunden, dafür gibt es mehr Lernvideos und altersgerechte Inhalte. Ein neuer „Eltern-Modus“ zeigt an, welche Videos die Kinder geschaut haben und wie lange.
Die Pause-Erinnerungen wurden durch ein smarteres System ersetzt: Die App erkennt jetzt Nutzungsmuster und schlägt individuelle Pausen vor. Nach 22 Uhr gibt es für unter 16-Jährige automatisch einen sanften „Schlafmodus“ mit gedämpften Farben und entspannteren Inhalten.
EU-Gesetze zwingen zum Handeln
Der Digital Services Act (DSA) und der geplante Child Safety Act haben den Druck auf Plattformen erhöht. Meta, TikTok und Co. mussten 2025 nachweisen, wie sie Minderjährige schützen – mit messbaren Ergebnissen.
TikTok führte eine KI-basierte Altersverifikation ein, die Gesichtserkennung und Verhaltensanalyse kombiniert. Instagram beschränkt DMs zwischen Erwachsenen und Jugendlichen drastisch. Snapchat entfernte die „Snap Map“ für unter 16-Jährige komplett.
Selbst Discord, lange ein rechtsfreier Raum, implementierte 2025 bessere Moderationstools und verpflichtende Eltern-Accounts für Nutzer unter 14.
Gaming-Plattformen ziehen nach
Auch Gaming-Dienste haben reagiert: Fortnite, Roblox und Minecraft führten schärfere Chat-Filter ein. Roblox ging am weitesten – dort können Kinder unter 13 nur noch in vormoderierte Räume und mit vorab geprüften Personen interagieren.
Steam und Epic Games Store blenden jetzt Gewaltspiele automatisch aus, wenn ein Jugendkonto erkannt wird. Das funktioniert allerdings nur, wenn ehrliche Altersangaben gemacht werden.
Der große Wurf bleibt aus
Trotz aller Verbesserungen: Das Grundproblem bleibt bestehen. Altersverifikation ist nach wie vor ein Witz – ein paar Klicks und schon ist man angeblich volljährig. Echte Identitätsprüfung? Fehlanzeige.
Dabei wären die technischen Mittel längst da: Biometrische Verfahren, Ausweiskontrollen via Video-Ident, KI-gestützte Verhaltensanalyse. Doch die Branche fürchtet um ihre Nutzerzahlen und den reibungslosen Onboarding-Prozess.
Politik muss endlich handeln
Der Gesetzgeber ist gefordert – und zwar international. Nationale Alleingänge verpuffen bei globalen Plattformen. Es braucht glasklare Standards: Wie muss Altersverifikation funktionieren? Welche Inhalte sind für welche Altersgruppen geeignet? Wie werden Verstöße geahndet?
Großbritannien plant für 2026 eine verpflichtende Ausweiskontrolle für alle sozialen Netzwerke. Kalifornien diskutiert ähnliche Gesetze. Deutschland hinkt hinterher – hier wird noch über Datenschutz-Bedenken debattiert, während Kinder ungeschützt durchs Netz surfen.
Mediale Bildung an Schulen ist zwar wichtig, reicht aber nicht. Nicht alle Kinder haben kompetente Eltern oder aufgeklärte Lehrer. Systemischer Schutz muss von den Plattformen selbst kommen – und von klaren gesetzlichen Vorgaben.
Institutionen tun sich schwer mit Jugendschutz: Interview mit Tobias Schmid von der LfM NRW
Die jüngsten Verbesserungen sind ein Schritt in die richtige Richtung – aber nur ein kleiner. Echter Jugendschutz im Netz braucht mehr als kosmetische Korrekturen und PR-trächtige Ankündigungen. Er braucht Mut zur Umsetzung und den Willen, Kinderschutz über Profit zu stellen.
Zuletzt aktualisiert am 24.02.2026