In einer Welt, in der Smartphones und soziale Medien den Alltag von Kindern und Jugendlichen dominieren, kämpfen Eltern oft um die Kontrolle über die digitale Erfahrung ihrer Kinder.
Doch jetzt zeichnet sich eine Wende ab: Instagram, eine der beliebtesten Plattformen unter Teenagern, führt „Teen-Konten“ ein – ein Werkzeug, das Eltern mehr Einfluss und Schutz verspricht.
Diese neue Initiative von Instagram könnte ein Wendepunkt im ewigen Tauziehen zwischen elterlicher Fürsorge und jugendlicher Freiheit im digitalen Raum sein. Aber was genau bieten diese Teen-Konten? Und können sie wirklich die Lösung für besorgte Eltern sein?
Eltern haben kaum Kontrolle über ihre Kinder
Sobald Kinder oder Jugendliche zum ersten Mal ein eigenes Smartphone bekommen, beginnt für Eltern eine schwierige Zeit: Sie verlieren nach und nach einen großen Teil der Kontrolle über ihre Kinder.
Über das, was sie sehen, was sie anschauen, was sie lesen, womit sie sich beschäftigen, welche Themen an sie herangetragen werden, mit wie sie sich austauschen und selbst, wie intensiv sie Apps nutzen. Schließlich sind die Geräte so klein, dass niemand immer „aufpassen“ kann. Völlig unmöglich.
Eltern verlieren bislang viel zu leicht die Kontrolle
Und dann kommen noch die unbestreitbaren Bedrohungen durch Plattformen wie Tiktok und Instagram dazu: Sie zeigen den Minderjährigen nicht selten Inhalte, die nicht altersgerecht sind und sie sogar verstören können. Auch gibt es viele Inhalte, die zu absurden Körperbildern und infolge zu Essstörungen und sogar schweren psychischen Problemen führen können.
Spätestens, seitdem Whistleblowerin Frances Haugen als Ex-Mitarbeiterin beim Facebook-Konzern den Betreibern von Instagram vorgeworfen hat, alle die schlechten und gefährlichen Einflüsse nicht nur zu kennen, sondern sogar aus wirtschaftlichen Gründen teilweise zu befördern, wächst der politische Druck auf den Meta-Konzern, der Instagram betreibt. Sogar in den USA, aber auch in Europa.
„Teen“-Konten geben Eltern die Kontrolle zurück
Jetzt hat der Konzern ein Lösungspaket eingeführt, „Teen-Konten“ genannt, das Eltern mehr Macht und Kontrolle über die Inhalte gibt, die ihre Kinder auf Instagram zu sehen bekommen.
Eltern können in Zukunft das Verhalten ihrer Kinder auf Instagram kontrollieren und auch vieles bestimmen, etwa wie viel Zeit die Kinder überhaupt mit der App verbringen dürfen. Nach 60 Minuten pro Tag erscheinen Aufforderungen, die App zu beenden. Nachts wird die App automatisch deaktiviert.
Teen-Konten sind standardmäßig privat. Teenager müssen neue Follower also erst akzeptieren, damit die ihre Beiträge sehen können. Bei Teen-Konten gelten die strengsten Messaging-Einstellungen, die User können nur Nachrichten von Personen erhalten, denen sie folgen oder mit denen sie bereits in Kontakt stehen – in der Regel also ihre eigenen Freunde.
Schutz vor Cyber-Grooming
Das soll insbesondere Cyber-Grooming verhindern: Dabei versuchen Erwachsene sich als Jugendliche auszugeben und kontaktieren fremde Kinder und Jugendliche. Eltern können sehen, mit wem ihre Kinder in Kontakt stehen; sie können nicht die eigentlichen Chat-Nachrichten sehen. Auch das erlaubt eine Kontrolle und Aufsicht.
Eltern und Kinder können selbst entscheiden, wie „scharf“ einzelne Funktionen eingestellt sind. Dazu müssen Eltern ihre Instagram-Konten mit denen ihrer Kinder verbinden. Die Schutzmaßnahmen sind bis zum 16. Lebensalter vorgesehen.
Kinder geben häufig ein falsches Alter an
Prinzipiell dürfen erst Kinder ab 13 Jahren Instagram benutzen. Weil das so ist, schummeln viele bei der Angabe des eigenen Alters, sie machen sich älter als sie sind. Marie von Stauffenberg von Meta räumt ein, dass das durchaus ein bekanntes Problem sei, doch der Meta-Konzern versuche nun verstärkt, mit Hilfe von KI die Nutzungsgewohnheiten zu erkennen und grobe Falschangaben beim Alter zu erkennen.
Die Folge: Identifizierte Nutzer werden in Teen-Konten umgewandelt, mit der Möglichkeit, die Einschränkungen loszuwerden, für den Fall, dass ein Irrtum vorliegt.
Marie von Stauffenberg vom Meta-Konzern erklärt: „Altersverifikation beschäftigt die gesamte Industrie. Wir wünschen uns eine idealerweise europaweite Regelung dafür“, etwa eine einheitliche Art der Altersverifikation, die für alle Plattformen einheitlich genutzt werden kann. Meta möchte eine Debatte über einfach nutzbare Kontrollmechanismen für Eltern über Apps verschiedener Anbieter hinweg voranbringen.
Dieser Wunsch lässt sich leicht erklären: Zum einen wäre es zweifellos nützlich, wenn es einheitliche plattformübergreifende Standards für Altersverifikation und Eltern-Kontrolle gäbe. Zum anderen möchte Meta natürlich verhindern, dass nun die strenger kontrollierten Kinder einfach zu einer in dieser Hinsicht offeneren Plattform wie Tiktok wechseln.
Teen-Konten kommen bis Ende des Jahres
Die neuen Teen-Accounts werden zunächst in USA, Großbritannien, Kanada und Australien eingeführt. In der EU soll es die verbesserten Möglichkeiten für Eltern bis Jahresende geben. Später soll es Teen-Konten auch auf anderen Meta-Plattformen geben, etwa Facebook (dass Jugendliche ohnehin kaum nutzen), WhatsApp und Threads.
Auch TikTok hat kürzlich mehrere Maßnahmen zum Schutz von Kindern und Jugendlichen eingeführt. Dazu gehören die Deaktivierung von Direktnachrichten für Nutzer unter 16 Jahren und Einschränkungen bei Kommentaren. Ein begleiteter Modus ermöglicht Eltern, die Einstellungen ihrer Kinder zu kontrollieren, während eine Zeitmanagement-Funktion die tägliche Nutzungsdauer begrenzt.
Zusätzlich wurden Voreinstellungen für mehr Privatsphäre implementiert und ein eingeschränkter Modus soll vor ungeeigneten Inhalten schützen. TikTok hat auch eine Schlafenszeitsperre für App-Benachrichtigungen angekündigt. Trotz dieser Bemühungen hat die EU-Kommission ein Ermittlungsverfahren eingeleitet, um die Angemessenheit des Jugendschutzes auf der Plattform zu überprüfen.
Es zeigt sich: Politischer Druck kann einiges bewirken.
Was tun, wenn das Smartphone zur Gefahr wird? Erfahren Sie, wie Sie die Kontrolle über die Social-Media-Nutzung Ihrer Kinder behalten und welche Maßnahmen Meta und andere Institutionen ergreifen, um junge Nutzer zu schützen.
Soziale Netzwerke wie Instagram und TikTok sind bei Kindern und Jugendlichen äußerst beliebt, doch die Risiken sind nicht zu unterschätzen.
Cybermobbing, gefährliche Challenges und der zunehmende Druck durch soziale Medien sind nur einige der Probleme, die Eltern kennen sollten. Doch es gibt Wege, wie Eltern und Medienscouts den Umgang mit diesen Plattformen sicherer gestalten können. Was sollten Sie wissen, um Ihre Kinder zu schützen?
Instagram und TikTok: Beliebt, aber mit Risiken
Die beiden Apps sind bei Kindern und Jugendlichen besonders beliebt, bergen jedoch unbestreitbar zahlreiche Risiken: Cybermobbing, Suchtpotenzial, gefährliche Challenges, Essstörungen bis hin – in seltenen Fällen – zum Suizid. Ein solcher Fall wird gerade von einem US-Berufungsgericht verhandelt: Eltern hatten Tiktok verklagt, weil sie bei Ausübung einer „Blackout Challenge“ auf Tiktok zu Tode gekommen ist.
Das sind zweifellos Extremfälle. Doch TikTok und Instagram stehen zunehmend in der Kritik – und unter Beobachtung. Vermutlich ein Grund, wieso Anbieter Meta eine Informationsveranstaltung wie „Screen smart, fit fürs Netz“ in Düsseldorf macht, zusammen mit Vertretern der Bundeszentrale für Kinder- und Jugendmedienschutz und der Landesanstalt für Medien NRW (LfM).
Meta will Eltern mehr ins Boot holen
Ziel: Für den richtigen Umgang mit der App zu werben und auch Eltern mit ins Boot zu holen, die die Nutzung ihrer Kinder überwachen und kontrollieren können. Wenn sie nur die richtigen Einstellungen vornehmen und Funktionen nutzen, die es für Eltern durchaus gibt. Doch die meisten Eltern sind damit eher überfordert.
Marie von Stauffenberg von Meta, die unter anderem für Jugend-Medienschutz verantwortlich ist, erklärt ausdrücklich, dass Instagram erst ab 13 Jahren genutzt werden darf und dass Eltern „eine ganz zentrale Rolle dabei haben“. „Wir helfen, indem wir Eltern-Aufsichtstools anbieten. Hier wird das Konto der Eltern mit dem Konto der Kinder verknüpft.“
Dadurch haben Eltern einen gewissen Einblick und könne Limits festlegen. Allerdings verlangt die Funktion einige Fähigkeiten, längst nicht alle schaffen das.
Medienscouts helfen Schülern im Netz
„Ich habe keinen Stress mit Challenges und Cybermobbing“, erklärt die Schülerin Lara Büsges aus Neuss wie selbstverständlich auf einer Informationsveranstaltung in Düsseldorf. „Ich habe meinen Instagram-Account auf privat gestellt.“
Das Beste, was man als Jugendlicher machen kann. Wären mal alle Kinder und Jugendlichen so umsichtig wie Lara, dann gäbe es deutlich weniger Schwierigkeiten mit Apps wie Instagram und Tiktok
Die umsichtige Schülerin Lara kennt sich bestens aus mit den Risiken von Social Media und den Einstellmöglichkeiten, sie ist Medienscout der Landesanstalt für Medien NRW (LfM). Ein Medienscout wird von Experten der LfM geschult im richtigen Umgang mit Medien.
Medienscouts sind Schülerinnen und Schüler, die speziell darin ausgebildet werden, ihre Mitschüler im sicheren und verantwortungsvollen Umgang mit digitalen Medien zu unterstützen und zu beraten – etwa auf entsprechenden Schulungen im Unterricht.
Die Erfahrung zeigt: Schüler lassen sich lieber von anderen Schülern zeigen, wie sie sicher im Netz unterwegs sein können – sie sprechen dieselbe Sprache. Solche Scouts werden unter anderem durch Initiativen wie der Landesanstalt für Medien Nordrhein-Westfalen ausgebildet.
Schüler können beim Alter schummeln
Prinzipiell dürfen erste Kinder ab 13 Jahren Instagram benutzen. Doch viele schummeln beim Alter und machen sich älter als sie sind. Marie von Stauffenberg von Meta räumt ein, dass das ein Problem sei, doch der Meta-Konzern versuche auch algorithmisch, solche Schummeleien zu erkennen.
Von Stauffenberg: „Altersverifikation beschäftigt die gesamte Industrie. Wir wünschen uns eine idealerweise europaweite Regelung dafür“, etwa eine einheitliche Art der Altersverifikation, die für alle Plattformen einheitlich genutzt werden kann.
Meta betont, dass der Konzern 50 Tools für den Jugendschutz da sind. Dieses Jahr wurden stärkere Inhaltskontrollen in Bereichen wie Selbstverletzung oder Essstörungen; hier werden zusätzliche Informationen angezeigt.
Whistleblowerin Frances Haugen
Es ist eine Menge in Bewegung gekommen, seitdem die Ex-Meta-Mitarbeiterin und Whistleblowerin Frances Augen im September 2021 öffentlich den Meta-Konzern angeklagt hat. Haugen klagt an, dass der Konzern nicht nur nicht genug für Kinder- und Jugendschutz tut, sondern sogar ganz bewusst Umsatzwachstum vor die mentale Gesundheit der Jugendlichen gestellt hat.
Marie von Stauffenberg weist die Vorwürfe erwartbar zurück. Doch seit diesen Vorwürfen beschäftigt sich auch die US-Regierung intensiv mit diesen Vorwürfen und ist auch Meta-Chef Mark Zuckerberg in einem Ausschuss hart ins Gericht gegangen.
Es gibt nicht nur TikTok, sondern auch TikTok Lite – jedenfalls in einigen Ländern. Das Problem: Die App belohnt zu viel Videos schauen. Ein Suchtmittel?
TikTok als Phänomen zu bezeichnen, ist sicher keine Übertreibung: Unter Jugendlichen ist die Video-App aus China ein regelrechter Knaller.
Jeder Jugendliche kennt die App, egal wo. Weltweit 1,5 Milliarden regelmäßige Benutzer. In Europa sind es 100 Mio., allein in Deutschland 20 Mio. Doch nun gibt es plötzlich eine zweite Version von TikTok, TikTok Lite genannt – seit einigen Tagen auch in Frankreich und Spanien verfügbar.
Und schon schlägt die EU-Kommission Alarm: TikTok Lite könnte aufgrund einiger speziellen Funktionen eine Gefahr für Minderjährige sein, so die Sorge.
TikTok lite verbraucht weniger Daten
Das ist eine abgespeckte Version der Video-App TikTok, die speziell für Nutzer mit langsameren Internetverbindungen oder älteren Smartphones entwickelt wurde. Sie ist eigentlich gedacht für Länder, in denen das Mobilfunknetz nicht so schnell ist oder die Handys alt und schwach. Da kann die normale TikTok-App schnell frustrierend werden, weil Videos ewig laden oder die App ruckelt.
Genau für dieses Publikum ist TikTok Lite gedacht. Die Lite Version ist deutlich kleiner und ressourcenschonender als die Haupt-App. Sie benötigt deutlich weniger Speicherplatz im Handy und läuft auch mit wenig Arbeitsspeicher flüssig.
Gleichzeitig lassen sich selbst mit einer 3G-Verbindung Kurzvideos ohne lange Ladezeiten anschauen. Aber sonst, was man kennt: Liken, teilen, selbst Videos aufnehmen. Aber eben alles reduziert.
TikTok belohnt grenzenloses Videosschauen
Deswegen wird TikTok Lite bislang in Schwellenländern eingesetzt, in Afrika, in Südamerika und in Teilen von Asien.
Sie hat aber noch eine andere Besonderheit – außer der Datensparsamkeit…
Richtig – und die ist nicht unerheblich. Es gibt ein Belohnungssystem. Das nennt sich „Tasks and Rewards“: Wer TikTok Lite benutzt und an diesem Reward-Programm teilnimmt wird belohnt für das Anschauen von Videos – und das Liken. Für das Folgen von bestimmten TikTok-Persönlichkeiten.
Und für das erfolgreiche Einladen von neuen Usern, die dann auch die App installieren und sich im TikTok-Universum aufhalten. Es gibt also Belohnungen für die Benutzung der App und für das Bewerben von TikTok.
Die eingesammelten Punkte lassen sich später in Amazon-Gutscheinen umtauschen – und damit können die Lite-User dann alles kaufen. Außerdem gibt es „TikTok Coins“, eine Art TikTok-Währung. Damit lassen sich dann zum Beispiel Creators bezahlen.
Das Ganze läuft also darauf hinaus, dass die die Nutzer – und das sind in erster Linie junge Menschen – noch mehr Zeit im Universum dieser App verbringen.
TikTok Lite in der EU
Jetzt ist die neue Version der App auch in Frankreich und Spanien verfügbar, bei uns noch nicht. Doch die EU ist alarmiert und verlangt von Betreiber Bytedance eine Erklärung. Wieso
Die EU-Kommission sagt, Betreiber Bytedance hätte nach dem neuen „Digital Services Act“ bereits vor der Veröffentlichung der App – die im Wesentlichen mit der Haupt-App gleich ist – eine Risikoeinschätzung vorlegen müssen.
Das hat der Betreiber nicht getan. Bytedance musste das binnen 24h nachholen. Es zeigt sich, dass die EU-Kommission den Digital Services Act ernst nimmt und auch anwendet.
EU-Binnenmarktkommissar Thierry Breton fragte öffentlich auf X, ob „TikTok lite“ nicht genauso süchtig mache wie „Zigaretten light“ – da wird ja auch durch den Namenszusatz suggeriert, es handele sich um eine viel harmlosere, weil „leichtere“ Version.
Denn die Belohnungsfunktion in TikTok Lite, so die Kritik, könne möglicherweise ein Suchtrisiko insbesondere für Minderjährige darstellen. Wer sich bei der neuen App anmelden will, müsse daher offiziell mindestens 18 Jahre alt sein.
Brüssel verlangt von TikTok daher Maßnahmen, die verhindern, dass sich Minderjährige unter Angabe eines falschen Geburtsdatums trotzdem anmelden.
Die EU und Jugendschutz
Zunächst einmal finde ich es gut und richtig, dass die EU-Kommission in diesem Fall schnell reagiert, bevor TikTok lite in ganz Europa verfügbar ist und Tatsachen geschaffen wurden.
Denn es geht in der Tat um den Jungendschutz. Und der ist auch dringend nötig. Tiktok hat schon in seiner klassischen Form mit 34 Stunden im Monat die höchste durchschnittliche Verweildauer aller Plattformen weltweit.
Wenn jetzt noch ein perfides Belohnungssystem dazu kommt, kriegt man die Kinder ja gar nicht mehr weg von der App, da sie sich unbemerkt etwas dazu verdienen können. Es ist wirklich zwingend notwendig, dass verhindert wird, dass Minderjährige das nutzen.
Aber dann bräuchte es eine wirklich funktionierende Altersverifikation, etwa mit Ausweis, bei TikTok Lite. Ich bin da sehr gespannt, denn es gibt noch viele andere Bereiche, in denen es eine valide Altersverifikation bräuchte, etwa bei Porno-Inhalten im Netz. Hier hat der Gesetzgeber viel zu lange weggeschaut. Der Fall TikTok Lite ist deswegen sehr wichtig.
Die Kurzvideo-App TikTok bringt ihre Lite-Version nach Frankreich und Spanien. Während Nutzer von schnelleren Ladezeiten profitieren, sieht die EU Risiken – vor allem für junge User.
Der Druck aus der US-Politik nimmt zu, dass die großen Plattformen deutlich mehr für den Jugendschutz tun. Der Meta-Konzern hat jetzt Verbesserungen bei der Verbreitung von Nacktbildern angekündigt. Die sollen künftig standardmäßig geblurt sein.
Instagram hat sich in den letzten Jahren zu einer der beliebtesten Social-Media-Plattformen entwickelt, insbesondere bei Jugendlichen und jungen Erwachsenen. Doch die Plattform birgt auch einige Risiken, vor allem für die jüngeren Nutzer. Die Diskussion um angemessenen Jugendschutz auf Instagram hat daher stark an Fahrt aufgenommen.
Bislang unzureichender Jugendschutz
Eine der Hauptsorgen ist der potenzielle Zugang zu unangemessenen oder schädlichen Inhalten wie Gewalt, Mobbing, übermäßiger Sexualisierung oder der Förderung ungesunder Körperbilder. Jugendliche befinden sich in einer sensiblen Phase der Entwicklung und sind besonders anfällig für negative Einflüsse.
Die Probleme von Sextortion, Sexting und Cybergrooming sind bei Instagram besonders virulent.
Sextortion bezeichnet die Erpressung mit intimen Bildern oder Videos, oft nach dem ungewollten Teilen selbiger durch das Opfer.
Beim Sexting, dem Austausch anzüglicher Nachrichten und Fotos, besteht die Gefahr der Weiterverbreitung ohne Einwilligung.
Cybergrooming meint die gezielte Kontaktaufnahme durch Erwachsene zu Minderjährigen mit dem Ziel der sexuellen Ausbeutung.
Instagram ist hier ein bevorzugter Tummelplatz für Täter. All diese Praktiken können für Jugendliche auf der Plattform verheerende psychische und rechtliche Folgen haben. Präventionsmaßnahmen zur Sensibilisierung und Aufklärung der Gefahren sind daher unerlässlich – wurden aber bislang sträflich vernachlässigt.
Der Meta-Konzern, der Instagram betreibt, hat sich als Maßnahme – nicht zuletzt aufgrund zunehmenden Drucks aus der US-Politik – nun dazu entschlossen, einige zusätzliche Sicherheitsfunktionen für Minderjährige einzuführen und diese in einem offiziellen Blogpost angekündigt.
Geplant ist, dass beim Senden und Empfangen von Nacktbildern künftig Warnhinweise erscheinen sollen. Außerdem – und das ist viel wichtiger – will Instagram Nacktbilder in Direktnachrichten bei Minderjährigen automatisch durch einen Unschärfefilter („Blur“) unkenntlich machen.
Unschärfefilter macht Nacktbilder unkenntlich
Empfänger solcher „Nachrichten“ sollen künftig die Wahl haben, ob sie ein solches Bild sehen möchten oder nicht, erklärt die zuständige Abteilung des Meta-Konzerns in Frankreich, die im Konzern für den Kinderschutz zuständig ist. Demnach sollen junge Menschen mit den neuen Maßnahmen vor „ungewolltem und potenziell gefährlichem Kontakten“ bewahrt werden.
Die Maßnahmen gegen unerwünschte Nacktbilder sollen bereits vor dem Versenden greifen. Falls jemand mit aktivierten Nacktbildschutz plant, ein solches Foto zu versenden, erscheint bereits ein Warnhinweis. Erst nach Bestätigung wird das Bild tatsächlich verschickt. Beim Empfänger erscheint das Bild dann durch Filter unscharf. Auf diese Weise soll niemand ungewollt mit solchen Aufnahmen konfrontiert werden.
Eine Hürde, keine Blockade
Die Empfänger können das Bild nach ausdrücklicher Bestätigung anschauen oder den sendenden Account direkt und konsequent blockieren. Außerdem erscheint ein ebenfalls ein Warnhinweis, sollte jemand versuchen, ein empfangenes Nacktbild weiterzuleiten.
Das alles ist eine Hürde, keine Blockade.
Im Vordergrund der Maßnahmen stehe der bessere Schutz vor sogenannter „Sextortion“, erklärt Meta. Hier bringen die Täter die zumeist minderjährigen Opfer durch Vorspiegelung falscher Tatsachen und psychologische Tricks dazu, Nacktbilder oder sogar -videos von sich zu erstellen und ihnen über die Plattform zu senden. Ist das erst mal geschehen, drohen die Täter häufig mit der Veröffentlichung des Materials.
Kontrolle erfolgt auf den Geräten selbst
Da Instagram seit Mai 2023 die direkte Kommunikation auf der Plattform durch eine Ende-zu-Ende-Verschlüsselung absichert, kann Meta die Inhalte nicht sehen und auch nicht überprüfen. Deshalb erfolgt die Überprüfung auf den Geräten von Absender und Empfänger. Die nötige Analyse ob nackt oder nicht erfolgt auf den Geräten selbst durch eine KI-Funktion.
Die neue Schutzfunktion soll zunächst in mehreren Ländern in Mittel- und Lateinamerika getestet werden und in den kommenden Monaten weltweit zum Einsatz kommen.
Konzern steht unter Druck
Der Meta-Konzern steht unter Druck: Whistleblowerin Frances Haugen, die früher bei Facebook gearbeitet hat, wirft dem Konzern vor, bei weitem nicht genug für Jugendschutz getan zu haben.
Facebook priorisiere Profit über das Wohlergehen der Jugendlichen. Interne Studien hätten gezeigt, dass Instagram der mentalen Gesundheit von Teenagern schade, das Unternehmen habe aber trotzdem nicht ausreichend reagiert. Seitdem hat insbesondere die US-Politik den Druck auf den Konzern verstärkt.
Bereits im Januar hatte Meta einen verstärkten Jugendschutz auf Instagram angekündigt. Jugendliche müssen seitdem die Zustimmung der Eltern einholen, um ein Konto von privat auf öffentlich zu setzen.
Tiktok ist die mit Abstand populärste App bei Kindern und Jugendlichen. Die EU-Kommission leitet nun ein offizielles Verfahren gegen die chinesische App ein. Dabei haben verschiedene Gründe eine Rolle gespielt.
Die Games-Schmiede Pic Games führt im populären Online-Game „Fortnite“ die Möglichkeit ein, anstößige, bedrohliche oder anderweitig regelverstoßende Voice-Chats zu melden.