OpenAI hat zugegeben, dass sie ChatGPT-Unterhaltungen überwachen und dabei sogar Amoklauf-Pläne entdeckt haben – sieben Monate bevor es zur Tragödie kam. Der Fall wirft unbequeme Fragen auf: Wie privat sind eure Chats wirklich? Und wo liegt die Grenze zwischen KI-Sicherheit und Datenschutz?
Die Enthüllung zeigt, dass eure ChatGPT-Gespräche nicht so privat sind, wie viele von euch gedacht haben. OpenAI scannt systematisch nach problematischen Inhalten – aber meldet längst nicht alles an Behörden. Das System funktioniert nach internen Schwellenwerten, die für Außenstehende völlig intransparent sind.
Was ist passiert?
OpenAI entdeckte bereits im Januar 2023 in ChatGPT-Chats konkrete Pläne für einen Amoklauf. Das Unternehmen stufte die Bedrohung jedoch als „nicht unmittelbar“ ein und meldete sie deshalb nicht an die Behörden. Erst sieben Monate später, im August 2023, kam es tatsächlich zu der angekündigten Gewalttat.
Der Fall kam nur durch interne Whistleblower ans Licht. OpenAI bestätigte mittlerweile, dass sie automatisierte Systeme zur Überwachung von ChatGPT-Unterhaltungen einsetzen. Diese scannen nach Gewaltinhalten, Terrorismus-Bezug und anderen kritischen Themen.
Besonders brisant: OpenAI arbeitet mit eigenen Bewertungskriterien. Nur wenn die interne KI-Analyse eine „unmittelbare Gefahr“ erkennt, werden Behörden informiert. Wer diese Schwellenwerte festlegt und nach welchen Kriterien – das bleibt Firmengeheimnis.
Das Unternehmen rechtfertigt das Vorgehen mit der schieren Masse an Daten. Täglich führen Millionen von Nutzern Gespräche mit ChatGPT. Eine manuelle Prüfung jedes verdächtigen Chats sei unmöglich, heißt es aus dem Unternehmen.
Warum das auch euch betrifft
Dieser Fall zeigt exemplarisch, wie KI-Überwachung funktioniert. Eure ChatGPT-Unterhaltungen werden nicht nur gespeichert, sondern auch aktiv analysiert. Das betrifft nicht nur extreme Fälle wie Gewaltandrohungen, sondern potenziell alle eure Gespräche.
OpenAI kann theoretisch jederzeit die Überwachungskriterien ändern. Was heute noch als harmlos gilt, könnte morgen als problematisch eingestuft werden. Ihr habt als Nutzer keinen Einblick in diese Entscheidungsprozesse.
Besonders heikel: Die Daten können auch an Dritte weitergegeben werden. OpenAI kooperiert mit Strafverfolgungsbehörden und könnte unter bestimmten Umständen auch ohne euer Wissen Informationen herausgeben.
In Deutschland gelten zwar strengere Datenschutzregeln als in den USA, aber die Server von OpenAI stehen größtenteils in Amerika. Dort greifen andere rechtliche Rahmenbedingungen.
So schützt ihr eure Privatsphäre

Ihr könnt eure ChatGPT-Unterhaltungen besser schützen, auch wenn komplette Anonymität schwierig ist. In den Einstellungen findet ihr unter „Data Controls“ die Option „Chat History & Training“. Deaktiviert diese Funktion, dann werden eure Gespräche nicht mehr für das Training neuer KI-Modelle verwendet.
Wichtig zu wissen: Auch bei deaktivierter Chat-Historie werden eure Unterhaltungen 30 Tage lang gespeichert und können überwacht werden. Komplett anonym seid ihr also nie.
Für wirklich sensible Themen solltet ihr auf ChatGPT verzichten. Nutzt stattdessen Open-Source-Alternativen wie Ollama, die ihr lokal auf eurem Rechner betreiben könnt. Diese Systeme sind zwar weniger leistungsfähig, aber eure Daten bleiben bei euch.
Wenn ihr ChatGPT trotzdem nutzen wollt: Vermeidet persönliche Details, Namen oder konkrete Pläne in euren Gesprächen. Behandelt jeden Chat so, als würde er von anderen mitgelesen – denn genau das passiert auch.
- Chat-Historie in den Einstellungen deaktivieren
- Keine persönlichen Daten in Gesprächen verwenden
- Für sensible Themen lokale KI-Alternativen nutzen
- Regelmäßig Chat-Verlauf löschen
Was das für die Zukunft bedeutet
Der OpenAI-Fall ist kein Einzelfall, sondern zeigt einen Trend auf. Alle großen KI-Anbieter werden ihre Überwachungssysteme weiter ausbauen – aus rechtlichen und ethischen Gründen, aber auch zum Schutz vor Missbrauch.
Gleichzeitig wächst der Druck auf mehr Transparenz. Die EU arbeitet an strengeren Regeln für KI-Systeme, die auch Überwachungspraktiken betreffen könnten. Bis dahin müsst ihr selbst entscheiden, wie viel Privatsphäre ihr für die Nutzung von ChatGPT aufgeben wollt.
Unser Rat: Nutzt ChatGPT bewusst und informiert. Die Technologie ist mächtig und nützlich, aber sie ist nie neutral. Jede eurer Eingaben wird analysiert, bewertet und gespeichert. Mit diesem Wissen könnt ihr bessere Entscheidungen treffen.
