Facebook, Instagram, WhatsApp, früher waren dies alles voneinander unabhängige Dienste. Nicht geräuschlos, aber doch für den einen oder anderen Anwender nicht ganz so offensichtlich sammeln diese (und viele andere) sich jetzt unter dem Dach von Meta. Wollt ihr, dass die Dienste miteinander kommunizieren können? Dann müsst ihr handeln!
In einer Welt, in der Smartphones und soziale Medien den Alltag von Kindern und Jugendlichen dominieren, kämpfen Eltern oft um die Kontrolle über die digitale Erfahrung ihrer Kinder.
Doch jetzt zeichnet sich eine Wende ab: Instagram, eine der beliebtesten Plattformen unter Teenagern, führt „Teen-Konten“ ein – ein Werkzeug, das Eltern mehr Einfluss und Schutz verspricht.
Diese neue Initiative von Instagram könnte ein Wendepunkt im ewigen Tauziehen zwischen elterlicher Fürsorge und jugendlicher Freiheit im digitalen Raum sein. Aber was genau bieten diese Teen-Konten? Und können sie wirklich die Lösung für besorgte Eltern sein?
Eltern haben kaum Kontrolle über ihre Kinder
Sobald Kinder oder Jugendliche zum ersten Mal ein eigenes Smartphone bekommen, beginnt für Eltern eine schwierige Zeit: Sie verlieren nach und nach einen großen Teil der Kontrolle über ihre Kinder.
Über das, was sie sehen, was sie anschauen, was sie lesen, womit sie sich beschäftigen, welche Themen an sie herangetragen werden, mit wie sie sich austauschen und selbst, wie intensiv sie Apps nutzen. Schließlich sind die Geräte so klein, dass niemand immer „aufpassen“ kann. Völlig unmöglich.
Eltern verlieren bislang viel zu leicht die Kontrolle
Und dann kommen noch die unbestreitbaren Bedrohungen durch Plattformen wie Tiktok und Instagram dazu: Sie zeigen den Minderjährigen nicht selten Inhalte, die nicht altersgerecht sind und sie sogar verstören können. Auch gibt es viele Inhalte, die zu absurden Körperbildern und infolge zu Essstörungen und sogar schweren psychischen Problemen führen können.
Spätestens, seitdem Whistleblowerin Frances Haugen als Ex-Mitarbeiterin beim Facebook-Konzern den Betreibern von Instagram vorgeworfen hat, alle die schlechten und gefährlichen Einflüsse nicht nur zu kennen, sondern sogar aus wirtschaftlichen Gründen teilweise zu befördern, wächst der politische Druck auf den Meta-Konzern, der Instagram betreibt. Sogar in den USA, aber auch in Europa.
„Teen“-Konten geben Eltern die Kontrolle zurück
Jetzt hat der Konzern ein Lösungspaket eingeführt, „Teen-Konten“ genannt, das Eltern mehr Macht und Kontrolle über die Inhalte gibt, die ihre Kinder auf Instagram zu sehen bekommen.
Eltern können in Zukunft das Verhalten ihrer Kinder auf Instagram kontrollieren und auch vieles bestimmen, etwa wie viel Zeit die Kinder überhaupt mit der App verbringen dürfen. Nach 60 Minuten pro Tag erscheinen Aufforderungen, die App zu beenden. Nachts wird die App automatisch deaktiviert.
Teen-Konten sind standardmäßig privat. Teenager müssen neue Follower also erst akzeptieren, damit die ihre Beiträge sehen können. Bei Teen-Konten gelten die strengsten Messaging-Einstellungen, die User können nur Nachrichten von Personen erhalten, denen sie folgen oder mit denen sie bereits in Kontakt stehen – in der Regel also ihre eigenen Freunde.
Schutz vor Cyber-Grooming
Das soll insbesondere Cyber-Grooming verhindern: Dabei versuchen Erwachsene sich als Jugendliche auszugeben und kontaktieren fremde Kinder und Jugendliche. Eltern können sehen, mit wem ihre Kinder in Kontakt stehen; sie können nicht die eigentlichen Chat-Nachrichten sehen. Auch das erlaubt eine Kontrolle und Aufsicht.
Eltern und Kinder können selbst entscheiden, wie „scharf“ einzelne Funktionen eingestellt sind. Dazu müssen Eltern ihre Instagram-Konten mit denen ihrer Kinder verbinden. Die Schutzmaßnahmen sind bis zum 16. Lebensalter vorgesehen.
Kinder geben häufig ein falsches Alter an
Prinzipiell dürfen erst Kinder ab 13 Jahren Instagram benutzen. Weil das so ist, schummeln viele bei der Angabe des eigenen Alters, sie machen sich älter als sie sind. Marie von Stauffenberg von Meta räumt ein, dass das durchaus ein bekanntes Problem sei, doch der Meta-Konzern versuche nun verstärkt, mit Hilfe von KI die Nutzungsgewohnheiten zu erkennen und grobe Falschangaben beim Alter zu erkennen.
Die Folge: Identifizierte Nutzer werden in Teen-Konten umgewandelt, mit der Möglichkeit, die Einschränkungen loszuwerden, für den Fall, dass ein Irrtum vorliegt.
Marie von Stauffenberg vom Meta-Konzern erklärt: „Altersverifikation beschäftigt die gesamte Industrie. Wir wünschen uns eine idealerweise europaweite Regelung dafür“, etwa eine einheitliche Art der Altersverifikation, die für alle Plattformen einheitlich genutzt werden kann. Meta möchte eine Debatte über einfach nutzbare Kontrollmechanismen für Eltern über Apps verschiedener Anbieter hinweg voranbringen.
Dieser Wunsch lässt sich leicht erklären: Zum einen wäre es zweifellos nützlich, wenn es einheitliche plattformübergreifende Standards für Altersverifikation und Eltern-Kontrolle gäbe. Zum anderen möchte Meta natürlich verhindern, dass nun die strenger kontrollierten Kinder einfach zu einer in dieser Hinsicht offeneren Plattform wie Tiktok wechseln.
Teen-Konten kommen bis Ende des Jahres
Die neuen Teen-Accounts werden zunächst in USA, Großbritannien, Kanada und Australien eingeführt. In der EU soll es die verbesserten Möglichkeiten für Eltern bis Jahresende geben. Später soll es Teen-Konten auch auf anderen Meta-Plattformen geben, etwa Facebook (dass Jugendliche ohnehin kaum nutzen), WhatsApp und Threads.
Auch TikTok hat kürzlich mehrere Maßnahmen zum Schutz von Kindern und Jugendlichen eingeführt. Dazu gehören die Deaktivierung von Direktnachrichten für Nutzer unter 16 Jahren und Einschränkungen bei Kommentaren. Ein begleiteter Modus ermöglicht Eltern, die Einstellungen ihrer Kinder zu kontrollieren, während eine Zeitmanagement-Funktion die tägliche Nutzungsdauer begrenzt.
Zusätzlich wurden Voreinstellungen für mehr Privatsphäre implementiert und ein eingeschränkter Modus soll vor ungeeigneten Inhalten schützen. TikTok hat auch eine Schlafenszeitsperre für App-Benachrichtigungen angekündigt. Trotz dieser Bemühungen hat die EU-Kommission ein Ermittlungsverfahren eingeleitet, um die Angemessenheit des Jugendschutzes auf der Plattform zu überprüfen.
Es zeigt sich: Politischer Druck kann einiges bewirken.
Soziale Netzwerke lassen sich aus unserem Leben kaum noch wegdenken. Dass mit der Nutzung ein Risiko verbunden ist, liegt auf der Hand: Das Internet vergisst nichts, zumindest nicht übergreifend und schnell. Aus diesem Grund sollten Sie ein wenig Zeit in die Privatsphären-Einstellungen investieren.
Manchmal wollt ihr so geheim wie möglich kommunizieren und vertraut nicht darauf, dass eure Messenger-Chats nicht von anderen auf eurem Smartphone eingesehen werden können. Wusstet ihr, dass ihr die iOS-Notizen-App dafür nutzen könnt?
Was tun, wenn das Smartphone zur Gefahr wird? Erfahren Sie, wie Sie die Kontrolle über die Social-Media-Nutzung Ihrer Kinder behalten und welche Maßnahmen Meta und andere Institutionen ergreifen, um junge Nutzer zu schützen.
Soziale Netzwerke wie Instagram und TikTok sind bei Kindern und Jugendlichen äußerst beliebt, doch die Risiken sind nicht zu unterschätzen.
Cybermobbing, gefährliche Challenges und der zunehmende Druck durch soziale Medien sind nur einige der Probleme, die Eltern kennen sollten. Doch es gibt Wege, wie Eltern und Medienscouts den Umgang mit diesen Plattformen sicherer gestalten können. Was sollten Sie wissen, um Ihre Kinder zu schützen?
Instagram und TikTok: Beliebt, aber mit Risiken
Die beiden Apps sind bei Kindern und Jugendlichen besonders beliebt, bergen jedoch unbestreitbar zahlreiche Risiken: Cybermobbing, Suchtpotenzial, gefährliche Challenges, Essstörungen bis hin – in seltenen Fällen – zum Suizid. Ein solcher Fall wird gerade von einem US-Berufungsgericht verhandelt: Eltern hatten Tiktok verklagt, weil sie bei Ausübung einer „Blackout Challenge“ auf Tiktok zu Tode gekommen ist.
Das sind zweifellos Extremfälle. Doch TikTok und Instagram stehen zunehmend in der Kritik – und unter Beobachtung. Vermutlich ein Grund, wieso Anbieter Meta eine Informationsveranstaltung wie „Screen smart, fit fürs Netz“ in Düsseldorf macht, zusammen mit Vertretern der Bundeszentrale für Kinder- und Jugendmedienschutz und der Landesanstalt für Medien NRW (LfM).
Meta will Eltern mehr ins Boot holen
Ziel: Für den richtigen Umgang mit der App zu werben und auch Eltern mit ins Boot zu holen, die die Nutzung ihrer Kinder überwachen und kontrollieren können. Wenn sie nur die richtigen Einstellungen vornehmen und Funktionen nutzen, die es für Eltern durchaus gibt. Doch die meisten Eltern sind damit eher überfordert.
Marie von Stauffenberg von Meta, die unter anderem für Jugend-Medienschutz verantwortlich ist, erklärt ausdrücklich, dass Instagram erst ab 13 Jahren genutzt werden darf und dass Eltern „eine ganz zentrale Rolle dabei haben“. „Wir helfen, indem wir Eltern-Aufsichtstools anbieten. Hier wird das Konto der Eltern mit dem Konto der Kinder verknüpft.“
Dadurch haben Eltern einen gewissen Einblick und könne Limits festlegen. Allerdings verlangt die Funktion einige Fähigkeiten, längst nicht alle schaffen das.
Medienscouts helfen Schülern im Netz
„Ich habe keinen Stress mit Challenges und Cybermobbing“, erklärt die Schülerin Lara Büsges aus Neuss wie selbstverständlich auf einer Informationsveranstaltung in Düsseldorf. „Ich habe meinen Instagram-Account auf privat gestellt.“
Das Beste, was man als Jugendlicher machen kann. Wären mal alle Kinder und Jugendlichen so umsichtig wie Lara, dann gäbe es deutlich weniger Schwierigkeiten mit Apps wie Instagram und Tiktok
Die umsichtige Schülerin Lara kennt sich bestens aus mit den Risiken von Social Media und den Einstellmöglichkeiten, sie ist Medienscout der Landesanstalt für Medien NRW (LfM). Ein Medienscout wird von Experten der LfM geschult im richtigen Umgang mit Medien.
Medienscouts sind Schülerinnen und Schüler, die speziell darin ausgebildet werden, ihre Mitschüler im sicheren und verantwortungsvollen Umgang mit digitalen Medien zu unterstützen und zu beraten – etwa auf entsprechenden Schulungen im Unterricht.
Die Erfahrung zeigt: Schüler lassen sich lieber von anderen Schülern zeigen, wie sie sicher im Netz unterwegs sein können – sie sprechen dieselbe Sprache. Solche Scouts werden unter anderem durch Initiativen wie der Landesanstalt für Medien Nordrhein-Westfalen ausgebildet.
Schüler können beim Alter schummeln
Prinzipiell dürfen erste Kinder ab 13 Jahren Instagram benutzen. Doch viele schummeln beim Alter und machen sich älter als sie sind. Marie von Stauffenberg von Meta räumt ein, dass das ein Problem sei, doch der Meta-Konzern versuche auch algorithmisch, solche Schummeleien zu erkennen.
Von Stauffenberg: „Altersverifikation beschäftigt die gesamte Industrie. Wir wünschen uns eine idealerweise europaweite Regelung dafür“, etwa eine einheitliche Art der Altersverifikation, die für alle Plattformen einheitlich genutzt werden kann.
Meta betont, dass der Konzern 50 Tools für den Jugendschutz da sind. Dieses Jahr wurden stärkere Inhaltskontrollen in Bereichen wie Selbstverletzung oder Essstörungen; hier werden zusätzliche Informationen angezeigt.
Whistleblowerin Frances Haugen
Es ist eine Menge in Bewegung gekommen, seitdem die Ex-Meta-Mitarbeiterin und Whistleblowerin Frances Augen im September 2021 öffentlich den Meta-Konzern angeklagt hat. Haugen klagt an, dass der Konzern nicht nur nicht genug für Kinder- und Jugendschutz tut, sondern sogar ganz bewusst Umsatzwachstum vor die mentale Gesundheit der Jugendlichen gestellt hat.
Marie von Stauffenberg weist die Vorwürfe erwartbar zurück. Doch seit diesen Vorwürfen beschäftigt sich auch die US-Regierung intensiv mit diesen Vorwürfen und ist auch Meta-Chef Mark Zuckerberg in einem Ausschuss hart ins Gericht gegangen.
TikTok: Harmlose Unterhaltung oder gefährliche Suchtfalle? Wir beleuchten die dunkle Seite der beliebten Video-App und ihre Auswirkungen auf Kinder und Jugendliche.
Ein aktuelles US-Gerichtsurteil könnte weitreichende Folgen für soziale Medien haben: TikTok muss sich für den Tod einer Zehnjährigen verantworten. Gleichzeitig fordert der deutsche Drogenbeauftragte ein Verbot für Kinder unter 12.
Tod durch Blackout Challenge auf TikTok
Als die zehnjährige Nylah Anderson aus dem US-Bundesstaat Pennsylvania im Dezember 2021 von ihren Eltern leblos in ihrem Zimmer aufgefunden wurde, ahnte niemand, dass ihr Tod in den USA eine grundlegende Debatte über die Verantwortung sozialer Medien auslösen würde.
Eine auf TikTok verbreitete „Blackout Challenge“ hatte das junge Mädchen damals dazu verleitet, sich selbst zu strangulieren (es wurde in TikTok-Videos so vorgemacht) – mit fatalen Folgen: Das junge Mädchen ist dabei gestorben.
Die Blackout Challenge auf TikTok ist ein extrem gefährlicher Trend, bei dem sich Teilnehmer vor laufender Kamera bis zur Bewusstlosigkeit würgen. Das Ziel ist es, einen Zustand der Ohnmacht zu erreichen und diesen Moment zu filmen. Diese lebensgefährliche Herausforderung hat bereits zu mehreren Todesfällen geführt, insbesondere bei Kindern und Jugendlichen im Alter von 8 bis 14 Jahren. Die Risiken reichen von Ohnmacht über Koma bis hin zum Tod durch Sauerstoffmangel
Als Reaktion auf die tödlichen Folgen hat TikTok alle Beiträge zur Challenge gelöscht und zeigt Warnhinweise bei entsprechenden Suchanfragen an. Dennoch haben betroffene Eltern das Unternehmen verklagt, da der Algorithmus angeblich solche gefährlichen Videos fördert. Experten und Eltern betonen die Notwendigkeit von Aufklärung und Prävention.
Sie empfehlen, offen mit Kindern über die Gefahren zu sprechen, ihre Online-Aktivitäten zu überwachen und ein Vertrauensverhältnis aufzubauen. Schulen und Eltern spielen eine wichtige Rolle dabei, Jugendliche über die Risiken aufzuklären und ihnen einen kritischen Umgang mit sozialen Medien beizubringen.
TikTok vor Gericht: Ein Präzedenzfall mit weitreichenden Folgen
Am Dienstag (27.08.2024) ließ ein US-Berufungsgericht eine Klage gegen TikTok zu, in der die Eltern das Unternehmen für den Tod der jungen Nylah verantwortlich machen. Bislang konnten sich Onlinedienste in den USA hinter einer Regel verstecken, dass Onlinedienste nicht für die Inhalte verantwortlich sind.
Doch Richterin Patty Shwartz hat – erstmals in der US-Geschichte – komplett anders entschieden: Sie argumentiert, dass TikTok sehr wohl eine Schuld treffen könnte, weil der Empfehlungsalgorithmus der Plattform der jungen Schülerin diese gefährlichen Inhalte ausgespielt hat.
Der Algorithmus ist entscheidend
Diese Entscheidung könnte die bisherige Auslegung des „Communications Decency Act“ von 1996 grundlegend verändern. Die Art und Weise, wie Algorithmen Inhalte ausspielt (wem wird was gezeigt), seien als „redaktionelle Entscheidungen“ zu werten und somit eine Form der Meinungsäußerung des Unternehmens selbst.
Diese Neuinterpretation könnte weitreichende Konsequenzen haben. Jeffrey Goodman, der Anwalt von Nylahs Mutter, brachte es auf den Punkt: „Die großen Technologiekonzerne haben gerade ihre ‚Du kommst aus dem Gefängnis frei‘-Karte verloren“.
Diese Sichtweise stellt einen Paradigmenwechsel dar. Bisher konnten sich soziale Medien in den USA darauf berufen, lediglich eine neutrale Plattform für nutzergenerierte Inhalte zu sein. Künftig könnten sie für die Auswirkungen ihrer Algorithmen zur Verantwortung gezogen werden.
TikTok nicht nur in den USA unter Druck
Während TikTok in den USA mit rechtlichen Konsequenzen konfrontiert wird, gerät die Plattform auch in Deutschland zunehmend in die Kritik. Der Bundesdrogenbeauftragte Burkhard Blienert forderte kürzlich ein Verbot von TikTok für Kinder unter 12 Jahren.
Blienert argumentiert, dass erst ab diesem Alter Jugendliche besser einschätzen könnten, wie sie soziale Medien sinnvoll nutzen. Er geht sogar noch weiter und fordert technische Einschränkungen nach Alter bis 18 Jahre, um „gefährdende Elemente auszuschließen“.
Ist TikTok tatsächlich gefährlich für Kinder?
Die Frage, ob TikTok eine Gefahr für Kinder darstellt, ist zweifellos komplex und vielschichtig. Einerseits bietet die Plattform kreative Möglichkeiten und Unterhaltung (allerdings längst nicht immer altersgerecht). Andererseits bergen Challenges wie die „Blackout Challenge“ erhebliche Risiken.
Eine Studie der Landesanstalt für Medien NRW zeigt, dass ein Drittel der Challenges auf TikTok potenziell schädlich ist. Besonders beunruhigend: Über 60 Prozent der befragten Kinder und Jugendlichen begegnen laut Untersuchungen der Landesanstalt für Medien auf TikTok Inhalten, die bei ihnen Unwohlsein verursachen.
Der Algorithmus als zweischneidiges Schwert
Der Empfehlungsalgorithmus von TikTok, der nun im Zentrum der rechtlichen Debatte steht, ist gleichzeitig Stärke und Schwäche der Plattform. Er sorgt für eine hohe Nutzerbindung, verstärkt aber ohne jeden Zweifel auch die Verbreitung problematischer Inhalte.
Dr. Tobias Schmid, Direktor der Landesanstalt für Medien NRW, kritisiert: „TikTok muss neben den offensichtlichen Nachlässigkeiten beim Schutz der Menschenwürde auch im Bereich des Jugendschutzes anfangen, seine Verantwortung ernst zu nehmen“.
Eltern in der Pflicht: Begleitung statt Verbot?
Trotz der Risiken plädieren viele Experten nicht für ein generelles Verbot. Stattdessen empfehlen sie eine aktive Begleitung durch Eltern und pädagogische Fachkräfte. Laura Kankaala, Cybersecurity-Expertin, betont die Wichtigkeit einer offenen Gesprächsatmosphäre: „Das macht es Ihren Kindern leichter, zu Ihnen zu kommen und über beunruhigende Inhalte in der App zu sprechen“.
Eltern sollten Konten ihrer Kinder unbedingt komplett anonymisieren, das Alter in TikTok richtig einstellen (viele Kinder tragen ein höheres Alter ein, damit sie keine „Nachteile“ haben) und die Sicherheitseinstellungen gemeinsam anpassen. Außerdem können Eltern die Nutzung der Kinder im eigenen Handy überwachen.