YouTube kennt jeder. Das Videoportal versorgt uns heute rund um die Uhr mit Videos aus allen möglichen Quellen. Auch Kinder und Jugendliche. Für die gibt es sogar eine eigene App: YouTube Kids. Seit 2017 auch in Deutschland verfügbar, verspricht die Plattform sichere Inhalte für die Kleinsten. Doch schützt das Angebot wirklich vor unpassenden Inhalten? Leider nein – und das Problem hat sich sogar verschärft. Aktuelle Studien zeigen: Verstörende Videos erreichen Millionen von Kindern weltweit. Was steckt dahinter?
YouTube Kids verspricht eigentlich, ausschließlich kindertaugliche Angebote zu präsentieren. Die Realität sieht anders aus. Trotz jahrelanger Kritik und angeblicher Verbesserungen landen weiterhin problematische Inhalte in der Kinder-App. Die mildeste Form ist noch versteckte Werbung – etwa endlose Videos vom Auspacken von Überraschungseiern, die gezielt Kaufwünsche wecken sollen.
Doch es gibt auch richtig verstörende, schockierende Videos. Bekannte Figuren wie Peppa Wutz trinken Bleichmittel. Disney-Figuren werden geköpft oder überfahren. Oder beliebte Charaktere werden in sexualisierte Situationen gebracht. Es gibt Brutalität, Frivolität, Sexismus, Horror, Missbrauch. Versteckt hinter hypnotisierender Musik und bekannten Figuren, die Kinder anziehen und Eltern nicht misstrauisch machen.
Besonders perfide: 2024 entdeckten Forscher neue Trends wie „Elsagate 2.0“ – modernere Versionen der verstörenden Videos, die KI-generierte Inhalte nutzen und noch schwerer zu erkennen sind. Diese Videos verwenden ausgeklügelte Thumbnails und Titel, die Algorithmen täuschen.
Wie schaffen es die Videos ins Angebot?
Das Problem liegt im System selbst. YouTube Kids setzt weiterhin hauptsächlich auf Algorithmen statt menschliche Kontrolle. Machine Learning soll eigentlich problematische Inhalte erkennen – versagt aber regelmäßig bei raffinierten Umgehungsstrategien.
Was viel geschaut wird, steigt in den Empfehlungen auf – egal, was dort zu sehen ist. Google macht es sich nach wie vor einfach und bietet eine Meldefunktion an. Doch dann ist es meist schon zu spät. Millionen Kinder haben die verstörenden Inhalte bereits gesehen. Außerdem müssen Eltern erst davon erfahren, bevor sie melden können.
Über die Suchfunktion ist praktisch alles erreichbar. Zwar können Eltern diese abschalten, aber das wissen viele nicht. Ein weiteres Problem: Autoplay-Funktionen führen Kinder oft ungewollt zu problematischen Inhalten, auch wenn sie harmlos anfangen.
2025 führte YouTube Kids zwar neue „Supervised Experiences“ ein – aber auch diese bieten keinen hundertprozentigen Schutz. Das Grundproblem bleibt: Algorithmen können Kontext nicht wie Menschen verstehen.
Die Absicht der Macher solcher Videos?
Geld, Geld, Geld. Das Geschäftsmodell ist simpel und lukrativ: Kinder sind treue, vorhersagbare Zuschauer. Sie schauen ihre Lieblingsfiguren immer wieder, klicken auf ähnliche Videos und generieren so Werbeeinnahmen.
Content-Farmen produzieren Clips am Fließband – heute oft mit KI-Unterstützung. ChatGPT und andere Tools erstellen Skripte, KI-Bildgeneratoren produzieren Thumbnails, Text-zu-Sprache-Software generiert Dialoge. Alles vollautomatisch, rund um die Uhr.
Die Methode ist wie bei Spam: Wenn sich zehn von 1000 Videos als viral erweisen – Bingo! Die Produzenten sammeln Millionen Aufrufe und kassieren über Googles Werbeprogramm ab. Manche dieser Kanäle generieren monatlich sechsstellige Beträge.
Besonders zynisch: Oft stammen die Videos aus Ländern mit niedrigen Produktionskosten. Content-Farmen in Osteuropa oder Asien überschwemmen YouTube Kids systematisch mit minderwertigen, aber algorithmisch optimierten Inhalten.
Was unternimmt Google dagegen?
Trotz jahrelanger Kritik ändert sich wenig Grundlegendes. Google verbesserte zwar die Meldefunktionen und will schneller reagieren – aber das Grundproblem bleibt. Der Konzern setzt weiter auf Masse statt Klasse.
2024 kündigte YouTube strengere Richtlinien für Kinderinhalte an. Kanäle müssen jetzt mehr Informationen über ihre Produzenten angeben. Aber Umgehungen sind einfach: Neue Kanäle entstehen schneller, als alte gelöscht werden.
Immerhin: Die EU-Gesetzgebung macht Druck. Der Digital Services Act zwingt Plattformen zu mehr Verantwortung. YouTube muss transparenter werden und Risikobewertungen für Minderjährige durchführen.
Doch echte Kuration – also menschliche Kontrolle aller Inhalte – gibt es nicht. Das wäre zu teuer für Googles Geschäftsmodell. Die Schwächen zeigen sich auch bei Erwachsenen-Inhalten: Desinformation, Hassrede und Verschwörungstheorien verbreiten sich ähnlich ungehindert.
Alternativen zu YouTube Kids
Eltern haben heute mehr Optionen als früher. Streaming-Dienste wie Disney+, Netflix Kids oder Amazon Prime Video bieten kuratierte Kinderinhalte ohne Algorithmus-Chaos. Diese kosten zwar Geld, bieten aber echte Sicherheit.
Auch öffentlich-rechtliche Angebote sind eine gute Wahl: Die ARD-Mediathek, KiKA-Player oder ZDFtivi haben nur geprüfte Inhalte. Kein Algorithmus entscheidet hier über Empfehlungen.
Für YouTube-Fans gibt es Browser-Extensions wie „DF YouTube“, die Empfehlungen und Kommentare komplett ausblenden. So können Kinder gezielt ausgewählte Videos schauen, ohne in Rabbit Holes zu geraten.
Praktische Tipps für Eltern
Medienbegleitung ist wichtiger denn je. Das bedeutet nicht ständige Überwachung, sondern bewusste Auswahl und regelmäßige Gespräche über Gesehenes.
Wenn YouTube Kids trotzdem zum Einsatz kommt: Suchfunktion deaktivieren, Autoplay ausschalten und nur ausgewählte Kanäle freigeben. Die „Nur von dir genehmigte Inhalte“-Funktion ist dabei euer bester Freund.
Wichtig auch: Kinder über problematische Inhalte aufklären. Sie sollen wissen, dass nicht alles, was sie online sehen, in Ordnung ist – und dass sie jederzeit zu euch kommen können.
Regelmäßig die Wiedergabeverlaufe checken hilft ebenfalls. So seht ihr, was eure Kinder wirklich schauen, und könnt rechtzeitig eingreifen.
Das Fazit bleibt hart: YouTube – auch die Kinder-Version – ist kein sicherer Babysitter. Echte Sicherheit gibt es nur durch bewusste Mediennutzung und elterliche Begleitung.
Zuletzt aktualisiert am 31.03.2026



