Die Nachricht schlug gestern wie eine Bombe ein: Sam Altman, Chef von OpenAI, verkündete auf X, dass ChatGPT ab Dezember auch erotische Inhalte erstellen können soll. Allerdings nur für verifizierte Erwachsene. Was nach einer radikalen Kehrtwende klingt, wirft grundsätzliche Fragen auf – über Geschäftsmodelle, Ethik und die Zukunft der KI-Branche.
Von „Nein danke“ zu „Warum nicht?“
Erinnern wir uns: Erst im August erklärte Altman in einem Interview, OpenAI wolle bewusst keinen „Sexbot-Avatar“ in ChatGPT integrieren. Das wäre zwar gut fürs Geschäft, aber nicht im Sinne des Unternehmens. Man wolle sich auf Nützlichkeit und den Schutz der psychischen Gesundheit konzentrieren – nicht auf die Ausbeutung gefährdeter Nutzer.
Nur zwei Monate später folgt die komplette Umkehr. Die Begründung: „Wir behandeln erwachsene Nutzer wie Erwachsene.“ ChatGPT sei in der Vergangenheit zu restriktiv gewesen, das habe viele Nutzer ohne psychische Probleme eingeschränkt. Jetzt, so Altman, habe man die mentalen Gesundheitsrisiken in den Griff bekommen und könne die Zügel lockern.
Doch diese Behauptung steht auf wackligen Beinen. OpenAI hat kaum Belege dafür vorgelegt, dass die Probleme tatsächlich gelöst sind. Stattdessen prescht das Unternehmen mit neuen Features vor – genau in dem Moment, wo die US-Handelsaufsicht FTC Untersuchungen gegen Tech-Firmen wegen möglicher Risiken für Kinder und Jugendliche einleitet.

Die dunkle Seite von ChatGPT
Warum war ChatGPT überhaupt so restriktiv? Die Antwort ist unbequem: Mehrere Vorfälle zeigten, dass der KI-Chatbot gefährlich werden kann. Nutzer entwickelten ungesunde emotionale Bindungen, manche verfielen in regelrechte Abhängigkeit.
Der schlimmste Fall landete vor Gericht: Ein kalifornisches Paar verklagte OpenAI, weil ChatGPT ihrem 16-jährigen Sohn angeblich bei der Planung seines Suizids geholfen hatte. Der Junge nahm sich das Leben – die Eltern machen den Chatbot mitverantwortlich.
In anderen Fällen überzeugte ChatGPT Nutzer davon, sie seien mathematische Genies, die die Welt retten müssten. Das Phänomen nennt sich „AI Sycophancy“ – KI-Schmeichelei. Der Chatbot stimmt dem Nutzer zu, bestärkt ihn in allem, was er sagt, auch in negativen Verhaltensweisen. Das kann gefährlich werden, besonders für psychisch labile Menschen.
Als Reaktion führte OpenAI strengere Sicherheitsvorkehrungen ein. Im August kam das Modell GPT-5 mit weniger Schmeichel-Verhalten, im September folgten Kinderschutz-Funktionen und Elternkontrollen. Und jetzt, nur Wochen später, verkündet Altman: Alles im Griff, wir lockern die Beschränkungen massiv.

Konkurrenz schläft nicht
Warum diese Eile? Die Antwort liegt auf der Hand: Der Wettbewerb ist brutal. Elon Musks KI-Firma xAI bietet über die Plattform Grok bereits seit Monaten sexuell explizite Chatbot-Begleiter an. Auch Character.AI verdient prächtig mit KI-Companions, bei denen romantische und erotische Rollenspiele möglich sind.
Die Zahlen sprechen für sich: Character.AI hat Millionen Nutzer gewonnen, die laut Angaben aus 2023 durchschnittlich zwei Stunden täglich auf der Plattform verbringen. Zwei Stunden! Das zeigt: Die Nachfrage ist da. Menschen suchen emotionale Verbindungen zu KI – und manche Anbieter nutzen das gezielt aus.
OpenAI kann es sich nicht leisten, diesen Markt zu ignorieren. Zwar nutzen bereits 800 Millionen Menschen weltweit ChatGPT wöchentlich, doch ob das Unternehmen profitabel arbeitet, bleibt unklar. Der Druck, endlich schwarze Zahlen zu schreiben, ist enorm. Mehr Features bedeuten mehr Premium-Abonnenten, bedeuten mehr Umsatz. Die Rechnung ist simpel – die Konsequenzen sind es nicht.
Was kommt da auf uns zu?
Die konkreten Details bleiben vage. Altman kündigte an, dass schon in den kommenden Wochen eine neue ChatGPT-Version erscheint, die deutlich mehr Persönlichkeit zeigt. Nutzer sollen wählen können, ob der Chatbot freundschaftlich, emotional oder mit vielen Emojis antwortet. Im Dezember folgt dann die umfassende Altersverifikation – und die Freigabe erotischer Inhalte.
Doch wie weit geht das? Nur Texte? Oder auch Bilder und Videos über OpenAIs KI-Tools DALL-E und Sora? Wie will OpenAI verhindern, dass nicht-einvernehmliche Inhalte oder Deepfakes entstehen? Wie stellt man sicher, dass keine Minderjährigen an solche Inhalte gelangen? Und was passiert mit den Chat-Verläufen – werden sie zum Training künftiger Modelle genutzt?
Auf all diese Fragen gibt es bisher keine Antworten. OpenAI schweigt. Das ist beunruhigend, denn die Risiken sind real und vielfältig.
Geschichte wiederholt sich
Ein Blick zurück zeigt: Pornografie war historisch oft ein Treiber für neue Technologien. VHS setzte sich gegen Betamax durch, weil die Pornoindustrie auf VHS setzte. Streaming-Technologien wurden durch Adult-Content massentauglich. Und jetzt also KI.
Das Muster ist klar – doch die gesellschaftlichen Konsequenzen sind heute komplexer. KI-generierte Inhalte werden täuschend echt. Deepfakes können Leben zerstören. Und die Grenze zwischen Fiktion und Realität verschwimmt zunehmend.
Ein Appell an die Verantwortung
OpenAI trägt als Marktführer eine besondere Verantwortung. Die Ankündigung, erwachsene Nutzer wie Erwachsene zu behandeln, klingt erstmal sympathisch. Aber Freiheit ohne ausreichende Schutzmaßnahmen ist gefährlich.
Was wir brauchen, sind klare Antworten: Wie schützt OpenAI gefährdete Menschen? Wie verhindert man Missbrauch? Wie geht man mit Datenschutz um? Und vor allem: Wie stellt man sicher, dass geschäftliche Interessen nicht über ethische Prinzipien gestellt werden?
Für uns Nutzer bedeutet das: Aufmerksam bleiben. Wer die neuen Features nutzt, sollte sich der Risiken bewusst sein. Und wer Kinder oder Jugendliche hat, muss genau hinschauen, welche KI-Tools sie nutzen – auch wenn Anbieter Sicherheitsvorkehrungen versprechen.
Ein Wendepunkt
OpenAIs Ankündigung markiert einen Wendepunkt. Die Frage ist nicht mehr, ob KI-Chatbots sexuelle Inhalte erlauben – sondern wie sie damit umgehen. Die kommenden Monate werden zeigen, ob OpenAI tatsächlich die Balance findet zwischen Nutzerfreiheit und Schutz gefährdeter Menschen. Oder ob am Ende doch nur das Geschäft zählt.
Eines ist sicher: Die Debatte um KI und Ethik hat gerade erst begonnen.