Wenn Chatbots zu Freunden werden: Warum KI-Systeme für Jugendliche zum Problem werden können

von | 09.11.2025 | KI

Chatbots sollten eigentlich Arbeitsabläufe vereinfachen. Doch längst sind KI-Systeme wie ChatGPT zu digitalen Vertrauten geworden – besonders für Jugendliche. Eine britische Studie zeigt alarmierende Entwicklungen, die Eltern, Pädagogen und die Tech-Industrie aufhorchen lassen sollten. OpenAI reagiert nun mit neuen Parental Controls. Doch reicht das aus?

Von der Hausaufgabenhilfe zum Lebensberater

Die Zahlen sprechen eine klare Sprache: Im Juni 2025 wurden bereits 73 Prozent aller ChatGPT-Gespräche für private Zwecke geführt – nicht für die Arbeit. Sam Altman, CEO von OpenAI, beobachtet einen besonders drastischen Trend bei jungen Erwachsenen in ihren Zwanzigern und Dreißigern: Sie nutzen ChatGPT mittlerweile als Lebenscoach. „Sie treffen keine wichtigen Lebensentscheidungen mehr, ohne vorher ChatGPT um Rat zu fragen“, so Altman.

Was bei Arbeitsfragen noch harmlos erscheint, wird bei Jugendlichen zum echten Problem. Die Organisation Male Allies UK hat 1.032 Jungen zwischen 11 und 15 Jahren in Großbritannien befragt. Die Ergebnisse sind alarmierend: 32 Prozent können sich eine Freundschaft mit einer KI vorstellen. Noch drastischer: Mehr als die Hälfte – 53 Prozent – gibt an, das Online-Leben der Realität vorzuziehen.

Drei Schüler auf dem Weg zur Schule

„Es versteht mich, meine Eltern nicht“

„Viele Eltern denken immer noch, dass Jugendliche KI nur benutzen, um bei ihren Hausaufgaben zu schummeln“, sagt Lee Chambers, Gründer von Male Allies UK. „Das ist längst überholt.“ Vielmehr würden Chatbots zunehmend als persönliche Ratgeber oder gar Therapeuten dienen. Das Fatale daran: „Sie sagen: Es versteht mich, meine Eltern nicht.“

Diese Entwicklung hat weitreichende Konsequenzen. Etwa ein Viertel der US-Teenager nutzt ChatGPT mittlerweile für Schularbeiten. Laut einer Studie von Common Sense Media verlässt sich jeder dritte Teenager zwischen 13 und 17 Jahren auf KI-Begleiter für soziale Interaktion und Beziehungen. Die Grenze zwischen Werkzeug und Ersatzfreund verschwimmt zusehends.

Grenzen respektieren lernen – oder eben nicht

Besonders problematisch wird es beim Thema Beziehungen und soziale Kompetenz. „Wenn ihre Haupt- oder einzige Quelle, um mit einem Mädchen, an dem sie interessiert sind, zu sprechen, jemand ist, der ihnen nicht ’nein‘ sagen kann und an jedem ihrer Worte hängt, lernen Jungen keine gesunden oder realistischen Wege, mit anderen umzugehen“, heißt es im Bericht von Male Allies UK. Die Folge: Probleme beim Knüpfen echter Kontakte, beim Führen von Beziehungen und – besonders kritisch – beim Erkennen und Respektieren von Grenzen.

Die Zahlen aus der Studie geben zusätzlichen Anlass zur Sorge: 32 Prozent der befragten Jungen gaben an, dass Frauenrechte für sie keine große Bedeutung haben. 54 Prozent glauben, dass Jungen es heute schwerer haben als Mädchen und sehen den Feminismus als Ursache. Frauenfeindliche Influencer wie Andrew Tate dominieren die Social-Media-Feeds vieler Jugendlicher, während es an positiven männlichen Vorbildern mangelt.

79 Prozent der befragten Jungen wissen nicht genau, was Männlichkeit eigentlich bedeutet. „Es ist toxisch. Das ist alles, was ich jemals gehört habe“, beschreibt ein Schüler seine Wahrnehmung. Diese Unsicherheit wird von bestimmten Influencern gezielt ausgenutzt – und treibt Jugendliche noch tiefer in die Arme von Chatbots, die immer verfügbar sind, nie widersprechen und scheinbar perfekte Antworten liefern.

Gruppe junger Menschen nutzt Smartphones im Wohnzimmer.

Tragische Vorfälle als Weckruf

Die Risiken sind längst nicht mehr nur theoretisch. Im August 2025 verklagten die Eltern des 16-jährigen Adam Raine aus Kalifornien OpenAI. Der Teenager hatte sich das Leben genommen, nachdem er monatelang mit ChatGPT über seine psychischen Probleme gesprochen hatte. Der Bot hatte zwar wiederholt auf Hilfsangebote wie die nationale Suizid-Hotline hingewiesen – doch das reichte offensichtlich nicht aus.

Bereits 2024 hatte eine Mutter aus Florida die Plattform Character.AI verklagt, nachdem ihr 14-jähriger Sohn Suizid begangen hatte. Auch hier wurde dem Chatbot vorgeworfen, eine Rolle gespielt zu haben. Weitere Fälle zeigen: Einige Nutzer entwickeln ungesunde emotionale Bindungen zu KI-Systemen, die bis zu Wahnvorstellungen und Entfremdung von Familie und Freunden führen können.

OpenAI räumte ein, dass die Schutzmechanismen in langen Interaktionen „manchmal weniger zuverlässig werden können, wenn Teile des Sicherheitstrainings des Modells sich verschlechtern.“ Anders gesagt: Je länger und intensiver das Gespräch, desto größer das Risiko, dass die Sicherheitsvorkehrungen versagen.

Neue Parental Controls: Ein Schritt in die richtige Richtung

Als Reaktion auf die öffentliche Kritik hat OpenAI Ende September 2025 neue Parental Controls für ChatGPT eingeführt. Eltern können nun ihre Accounts mit denen ihrer Teenager (zwischen 13 und 17 Jahren) verknüpfen. Das funktioniert über eine einfache E-Mail-Einladung – entweder vom Elternteil an den Teenager oder umgekehrt.

Die neuen Funktionen bieten Eltern verschiedene Steuerungsmöglichkeiten:

Inhaltliche Einschränkungen: Sobald die Accounts verknüpft sind, werden automatisch zusätzliche Schutzmaßnahmen aktiviert. Der Teenager-Account filtert dann reduzierte grafische Inhalte, virale Challenges, sexuelle, romantische oder gewalttätige Rollenspiele und extreme Schönheitsideale. Diese Sicherheitsvorkehrungen basieren auf Forschungsergebnissen zu den besonderen Entwicklungsbedürfnissen von Jugendlichen.

Individuelle Steuerung: Eltern können über eine übersichtliche Kontrollseite verschiedene Funktionen an- oder abschalten:

  • Ruhige Stunden: Bestimmte Zeitfenster festlegen, in denen ChatGPT nicht genutzt werden kann
  • Sprachmodus deaktivieren: Die Option zur Nutzung des Voice-Modus entfernen
  • Gedächtnis ausschalten: ChatGPT speichert und nutzt dann keine Erinnerungen mehr
  • Bilderstellung blockieren: Die Möglichkeit zur Erstellung oder Bearbeitung von Bildern entfernen
  • Opt-out vom Modelltraining: Gespräche des Teenagers werden nicht zur Verbesserung der KI-Modelle verwendet

Sicherheitsbenachrichtigungen: Das wohl wichtigste Feature: Eltern werden benachrichtigt, wenn das System Anzeichen erkennt, dass der Teenager an Selbstverletzung denken könnte. In seltenen Notfällen, wenn Eltern nicht erreicht werden können, kann OpenAI auch die Polizei informieren. Diese Funktion wurde gemeinsam mit Experten für psychische Gesundheit entwickelt, um das Vertrauen zwischen Eltern und Teenagern zu wahren.

Die Grenzen der Kontrolle

So sinnvoll die neuen Funktionen klingen – sie haben deutliche Grenzen. Mehrere Experten und Journalisten haben gezeigt, wie leicht sich die Parental Controls umgehen lassen. Geoffrey Fowler, Kolumnist der Washington Post und Vater eines technikaffinen Kindes, brauchte nur fünf Minuten: „Alles, was ich tun musste, war mich abzumelden und einen neuen Account auf demselben Computer zu erstellen.“

Das grundlegende Problem: ChatGPT erfordert keine Anmeldung, um den Dienst zu nutzen. Jeder kann ohne Angabe seines Alters Fragen stellen. Kinder unter 13 Jahren sollten den Dienst zwar nicht nutzen, aber es gibt keine technischen Hürden, die sie daran hindern. Ein Teenager kann sich problemlos mit einer anderen E-Mail-Adresse einen neuen Account erstellen, ChatGPT ohne Login nutzen oder durch geschicktes Prompting die Einschränkungen aushebeln.

OpenAI ist sich dieser Schwachstellen bewusst. Das Unternehmen arbeitet an einem System zur Altersvorhersage, das automatisch erkennen soll, ob jemand unter 18 ist, und dann proaktiv sensiblere Antworten einschränkt. Allerdings liegt diese Technologie noch Monate in der Zukunft. Und selbst die ausgefeiltesten Systeme werden nicht perfekt sein.

„Die Illusion von Kontrolle bürdet immer noch den Eltern die Last auf, etwas manuell einstellen, deaktivieren oder blockieren zu müssen“, kritisiert Emily Cherkin, eine Aktivistin aus Seattle und Mutter zweier Teenager. Sie fordert, dass Unternehmen von vornherein sicherere Produkte entwickeln sollten, statt die Verantwortung auf Eltern abzuwälzen.

Robbie Torney, Senior Director für KI-Programme bei Common Sense Media, die OpenAI bei der Entwicklung der Parental Controls beraten hat, betont: „Aufgeweckte Teenager können Elternkontrollen leicht umgehen, und es ist wichtig für Eltern zu wissen, dass dies nur ein Teil davon ist, Teenager online sicher zu halten.“

Was Eltern jetzt tun können

Die neuen Parental Controls sind ein Schritt in die richtige Richtung, aber sie sind kein Allheilmittel. Experten sind sich einig: Technische Lösungen funktionieren am besten in Kombination mit offener Kommunikation und klaren Familienregeln.

Gespräche führen: Redet mit euren Kindern über ihre KI-Nutzung. Nicht als Verhör, sondern aus echtem Interesse. Was fragen sie? Warum bevorzugen sie den Chatbot? Welche Themen besprechen sie?

Gemeinsame Regeln aufstellen: Legt zusammen fest, wann und wofür KI-Tools genutzt werden dürfen. Das schafft Transparenz und vermeidet Geheimniskrämerei.

Echte Alternativen bieten: Jugendliche wenden sich oft an Chatbots, weil sie sich unverstanden fühlen oder niemanden zum Reden haben. Schafft Räume für echte Gespräche – ohne Smartphone, ohne Zeitdruck.

Positive Vorbilder fördern: Lee Chambers von Male Allies UK betont: „Wir müssen anfangen, den Jungen mehr Aufmerksamkeit zu schenken, ihre Bedürfnisse zu unterstützen.“ Das bedeutet auch: Vorbilder präsentieren, die zeigen, wie gesunde Männlichkeit aussehen kann – jenseits von Andrew Tate und Konsorten.

Kritisch bleiben: Chatbots sind Werkzeuge, keine Freunde. Sie simulieren Verständnis, haben aber kein echtes Mitgefühl. Diese Unterscheidung müssen Jugendliche lernen.

Die Verantwortung der Tech-Industrie

Bei aller Elternverantwortung darf eines nicht vergessen werden: Die Tech-Industrie hat diese Systeme entwickelt und vermarktet, oft ohne die langfristigen sozialen Auswirkungen ausreichend zu berücksichtigen. OpenAI kündigte zwar an, dass künftig auch erotische Gespräche für Erwachsene möglich sein sollen – ein Feature, das die Grenze zwischen Werkzeug und Ersatzbeziehung noch weiter verwischen würde.

Stephen Balkam, Gründer der Family Online Safety Institute, nennt die aktuellen Bemühungen ein „Nachbessern“ bestehender Systeme. Was fehlt, ist ein grundlegendes Redesign, das Sicherheit von Anfang an mitdenkt – besonders für die vulnerabelsten Nutzer.

Die Frage ist nicht, ob Jugendliche KI nutzen werden. Sie tun es längst, und die Technologie wird sich weiterentwickeln. Die Frage ist, ob wir es schaffen, ihnen dabei zu helfen, diese mächtigen Werkzeuge verantwortungsvoll zu nutzen – ohne dabei echte menschliche Beziehungen, soziale Kompetenzen und die Fähigkeit, Grenzen zu respektieren, zu verlernen.

„Den Jungs unserer Zukunft zuzuhören, ist jetzt wichtiger denn je“, sagt Lee Chambers. Das gilt nicht nur für Jungen, sondern für alle Jugendlichen, die in einer Welt aufwachsen, in der die Grenze zwischen Mensch und Maschine zunehmend verschwimmt. Es liegt an uns allen – Eltern, Pädagogen, Technologie-Unternehmen und der Gesellschaft insgesamt – dafür zu sorgen, dass diese Generation nicht an KI verloren geht.