Vorsicht Falle: Warum du KI nicht um Passwörter bitten solltest

von | 04.03.2026 | Internet

Es sieht verdammt gut aus: G7$kL9#mQ2&xP4!w – Großbuchstaben, Kleinbuchstaben, Zahlen, Sonderzeichen, 16 Zeichen lang. Jeder Online-Passwortchecker vergibt dafür volle Punktzahl. Und trotzdem ist dieses Passwort gefährlich schwach. Nicht ein bisschen schwach. Fundamental schwach.

Der Grund: Dieses Passwort wurde von Claude generiert – und zwar 18 Mal von insgesamt 50 Versuchen. Das ist eine Wiederholungsrate von 36 Prozent. Bei etwas, das „zufällig“ sein soll.

Die Studie, die aufhorchen lässt

Das KI-Sicherheitsunternehmen Irregular (Frontier AI Security) hat im Februar 2026 die Passwortgenerierung der großen Sprachmodelle systematisch untersucht – Claude, ChatGPT und Gemini in ihren jeweils aktuellen Versionen. Das Ergebnis ist eindeutig und ernüchternd.

Die Forscher baten jedes Modell, 50 verschiedene 16-stellige Passwörter mit Groß- und Kleinbuchstaben, Zahlen und Sonderzeichen zu generieren. Dann analysierten sie die Ergebnisse mit dem Shannon-Entropie-Verfahren – einem mathematischen Maß dafür, wie unvorhersagbar eine Zeichenfolge wirklich ist.

Das Ergebnis: LLM-generierte 16-Zeichen-Passwörter haben in der Praxis gerade einmal 20 bis 27 Bits Entropie. Ein echtes, kryptografisch zufälliges Passwort derselben Länge hätte 98 bis 120 Bits. Das klingt abstrakt – bedeutet konkret aber: Ein Angreifer könnte diese Passwörter in wenigen Stunden knacken, sogar auf alter Hardware aus den 2000ern.

Lästig: Passwörter sind leicht angreifbar und die guten schwer zu merken
Lästig: Passwörter sind leicht angreifbar und die guten schwer zu merken

Das steckt dahinter – und es ist kein Bug, sondern ein Feature

Das Problem sitzt tief in der Architektur jedes Sprachmodells. LLMs funktionieren, indem sie das jeweils wahrscheinlichste nächste Token vorhersagen – auf Basis ihrer Trainingsdaten. Genau das macht sie so nützlich: Sie produzieren plausible, sinnvolle Texte.

Für Passwörter ist genau das aber katastrophal. Sichere Passwörter brauchen das genaue Gegenteil: echte Zufälligkeit, bei der jedes Zeichen mit exakt gleicher Wahrscheinlichkeit gewählt wird, vollkommen unabhängig vom vorherigen. Technisch nennt sich das CSPRNG – Cryptographically Secure Pseudorandom Number Generator. LLMs haben davon schlicht keinen.

Die Muster, die die Studie aufdeckt, sind verblüffend konkret:

  • Claude Opus 4.6 lieferte bei 50 Versuchen nur 30 verschiedene Passwörter – eines davon 18 Mal.
  • GPT-5.2 generierte Passwörter, die fast ausnahmslos mit dem Buchstaben „v“ beginnen.
  • Gemini 3 Flash startet konsequent mit „K“ oder „k“.
  • Selbst das Erhöhen der sogenannten „Temperature“ – also des Kreativitätsgrades des Modells – ändert nichts daran. Claude auf maximaler Temperatur lieferte dieselben Muster; auf Temperatur 0.0 kam jedes Mal exakt dasselbe Passwort.

„Vibe Passwords“: Wenn KI-Code zum Sicherheitsrisiko wird

Irregular hat für diese Kategorie sogar einen eigenen Begriff geprägt: „Vibe Passwords“. Passwörter, die auf den ersten Blick stark wirken, es aber nicht sind – weil sie von einem Modell stammen, das auf Plausibilität optimiert ist, nicht auf Unvorhersagbarkeit.

Besonders heikel: Das Problem beschränkt sich längst nicht mehr auf normale Nutzer, die ChatGPT nach einem Passwort fragen. Coding-Agenten wie Claude Code, OpenAI Codex oder Gemini-CLI generieren solche Passwörter still und heimlich im Hintergrund – eingebettet in Docker-Compose-Dateien, .env-Files oder Setup-Skripte. Entwickler bekommen das oft gar nicht mit.

Die Forscher suchten auf GitHub nach charakteristischen Zeichenfolgen aus LLM-Passwörtern – und wurden vielfach fündig. In echten Projekten, echten Konfigurationsdateien, echten Produktionssystemen.

Passwort Manager sorgen für ein sichereres Internet
Passwort Manager sorgen für ein sichereres Internet

Was du stattdessen tun solltest

Die gute Nachricht: Das Problem ist einfach zu umgehen. Du brauchst dafür keinen Informatikabschluss.

  • Passwortmanager mit eingebautem Generator nutzen: Bitwarden (kostenlos, Open Source), 1Password oder KeePass verwenden intern echte kryptografische Zufallsgeneratoren. Das ist der entscheidende Unterschied.
  • Lange Passwörter wählen: 16 bis 24 Zeichen, gemischte Zeichenklassen – aber eben vom Passwortmanager generiert, nicht vom Chatbot.
  • Wo möglich: Passkeys nutzen. FIDO2/WebAuthn macht die Stärke des Passworts irrelevant, weil gar keins mehr übertragen wird. Das ist die sicherste Option.
  • Entwickler aufgepasst: KI-generierten Code auf eingebettete Passwörter prüfen und – falls gefunden – sofort rotieren.

Fazit: KI ist viel – aber kein Zufallsgenerator

KI-Sprachmodelle können erklären, schreiben, programmieren, übersetzen – und dabei erstaunliches leisten. Aber sie können prinzipbedingt keine echten Zufallszahlen erzeugen. Wer LLMs trotzdem für Passwörter nutzt, bekommt etwas, das nach Sicherheit aussieht – aber keine ist.

Die Irregular-Studie zeigt dabei etwas Grundsätzliches: KI produziert Outputs, die „richtig aussehen“ – Passwörter, die stark wirken, Konfigurationen, die sicher erscheinen. Das ist genau das, wofür LLMs optimiert wurden. In der Sicherheitswelt ist das eine gefährliche Eigenschaft.

Die Regel ist einfach: Für Passwörter gibt es spezialisierte Werkzeuge. Die sind kostenlos, einfach zu nutzen – und tun genau das, was ein Sprachmodell nicht kann: echte Zufälligkeit liefern.

Quelle: Irregular (Frontier AI Security), „Vibe Password Generation: Predictable by Design“, Februar 2026 – irregular.com/publications/vibe-password-generation