Privat? Von wegen! Wenn KI-Prompts plötzlich bei Google auftauchen

von | 08.11.2025 | KI

Privat? Von wegen! Wenn KI-Prompts plötzlich bei Google auftauchen.

Ups! Da hat jemand wohl vergessen, die Tür abzuschließen. Ein Security-Forscher hat kürzlich eine ziemlich unangenehme Entdeckung gemacht: Private Prompts aus ChatGPT und anderen KI-Chatbots tauchen in der Google Search Console auf – für jeden einsehbar, der Zugriff auf die entsprechenden Websites hat.

Klingt technisch? Ist es auch ein bisschen. Aber die Konsequenzen sind verdammt praktisch und betreffen möglicherweise jeden von uns, der KI-Tools nutzt.

Was ist da eigentlich passiert?

Der Security-Experte Matthias hat das Problem entdeckt und auf seinem Blog „Niebezpiecznik“ (polnisch für „Gefährlich“) dokumentiert. Die Sache ist schnell erklärt: Wenn ihr einen KI-Chatbot nach Informationen zu einer bestimmten Website fragt, durchsucht die KI das Netz – und zwar oft über die Google-Suche. Soweit, so normal.

Das Problem: Bei dieser Suche hängt die KI manchmal euren kompletten Prompt als Parameter an die URL. Also nicht nur „Suche nach Website XYZ“, sondern eure gesamte Anfrage, inklusive aller Details, die ihr der KI mitgegeben habt. Und diese URL landet dann – Überraschung! – in den Logfiles und der Google Search Console der betroffenen Website.

OpenAIs CEO Sam Altman hat angekündigt, dass ChatGPT einen Erotik-Modus angekündigt
OpenAIs CEO Sam Altman hat angekündigt, dass ChatGPT einen Erotik-Modus angekündigt

Ein Beispiel, das unter die Haut geht

Matthias hat in seiner Analyse konkrete Beispiele gefunden, die zeigen, wie heikel das werden kann. Da waren Prompts dabei wie:

  • Jemand, der ChatGPT gebeten hat, Informationen über eine Konkurrenzfirma zu sammeln
  • Nutzer, die nach sensiblen Themen gesucht haben
  • Anfragen, die persönliche oder geschäftliche Details enthielten

Stellt euch mal vor: Ihr fragt ChatGPT nach Infos über euren potenziellen neuen Arbeitgeber, inklusive Details zu eurem aktuellen Gehalt und Verhandlungsposition. Und genau diese Anfrage landet dann in den Logs dieser Firma. Nicht so prickelnd, oder?

Welche KI-Tools sind betroffen?

Die schlechte Nachricht: Es sind nicht nur die üblichen Verdächtigen. Matthias hat das Problem bei verschiedenen KI-Chatbots beobachtet:

  • ChatGPT von OpenAI
  • Perplexity
  • Vermutlich auch andere KI-Assistenten, die Websuchen durchführen

Besonders interessant: Das Problem tritt hauptsächlich bei Anfragen auf, bei denen die KI aktiv im Web nach Informationen sucht. Also genau dann, wenn ihr glaubt, besonders clever zu sein und die KI als Recherche-Assistent einsetzt.

Warum passiert das überhaupt?

Die technische Erklärung ist relativ simpel: Viele KI-Systeme nutzen Suchmaschinen als „Werkzeug“, um aktuelle Informationen zu finden. Dabei generieren sie URLs, die sie dann aufrufen. Und manchmal – aus welchen Gründen auch immer – wird der komplette Prompt als URL-Parameter mitgeschickt.

Das ist ungefähr so, als würdet ihr in einer Bibliothek nicht nur nach einem Buch fragen, sondern der Bibliothekarin auch gleich erzählen, warum ihr das Buch braucht, was ihr damit vorhabt und welche persönlichen Probleme damit zusammenhängen. Und die schreibt das alles brav ins Ausleihbuch. Für immer.

Die Gefahr liegt im Detail

Was macht das Ganze so problematisch? Mehrere Dinge:

Fehlende Privatsphäre: Was ihr mit einer KI besprecht, sollte eigentlich privat bleiben. Dass diese Informationen plötzlich bei Dritten landen, widerspricht jeder Erwartung von Vertraulichkeit.

Geschäftsgeheimnisse: Wenn Unternehmen KI-Tools für ihre Recherchen nutzen, können vertrauliche Strategien, Pläne oder Interessen offengelegt werden – bei der Konkurrenz.

Persönliche Daten: Ihr könnt nie sicher sein, welche persönlichen Informationen in euren Prompts stecken und wo diese landen.

Dauerhafte Speicherung: Die Daten in der Search Console bleiben erhalten. Das Internet vergisst nicht.

Was sagen die Anbieter?

Bislang gibt es noch keine offiziellen Statements von OpenAI oder anderen betroffenen Anbietern zu dem Problem. Das ist typisch für solche Sicherheitslücken: Erst wird beobachtet, dann analysiert, dann – hoffentlich – gefixt.

Matthias hat das Problem dokumentiert und öffentlich gemacht, weil es seiner Meinung nach zu wichtig ist, um es unter den Teppich zu kehren. Zu Recht!

Was könnt ihr tun?

Bis die Anbieter das Problem lösen (falls sie es überhaupt als Problem ansehen), solltet ihr vorsichtig sein:

  1. Überlegt zweimal, was ihr der KI erzählt: Besonders wenn ihr nach spezifischen Websites oder Unternehmen fragt, solltet ihr keine sensiblen Details in eure Prompts packen.
  2. Trennt Informationen: Stellt eure Fragen in mehreren Schritten. Erst die allgemeine Recherche, dann – in einem neuen Chat – die spezifischen Details.
  3. Nutzt keine privaten oder geschäftskritischen Infos: Alles, was wirklich vertraulich ist, hat in einem KI-Prompt nichts zu suchen – zumindest nicht bei aktuellen Tools.
  4. Bleibt wachsam: Checkt regelmäßig die News zu KI-Sicherheit. Solche Lücken werden laufend entdeckt und (hoffentlich) geschlossen.

Das große Bild

Dieser Vorfall zeigt einmal mehr: KI-Tools sind mächtig, praktisch, manchmal fast magisch – aber sie sind nicht perfekt. Und die Frage nach Privatsphäre und Datenschutz ist noch längst nicht geklärt.

Wir stecken mitten in einer Phase, in der die Technologie schneller entwickelt wird, als die Sicherheitskonzepte hinterherkommen. Das ist nicht unbedingt böse Absicht – oft ist es einfach Komplexität und die Geschwindigkeit der Entwicklung.

Aber ihr als Nutzer solltet euch bewusst sein: Was ihr einer KI anvertraut, ist möglicherweise nicht so privat, wie ihr denkt. Das ist keine Panikmache, sondern einfach die Realität im Jahr 2025.

Nutzt KI-Tools weiter, sie sind großartig. Aber macht es mit offenen Augen – und ein bisschen gesundem Misstrauen schadet nie.