Es sieht verdammt gut aus: G7$kL9#mQ2&xP4!w – Großbuchstaben, Kleinbuchstaben, Zahlen, Sonderzeichen, 16 Zeichen lang. Jeder Online-Passwortchecker vergibt dafür volle Punktzahl. Und trotzdem ist dieses Passwort gefährlich schwach. Nicht ein bisschen schwach. Fundamental schwach.
Der Grund: Dieses Passwort wurde von Claude generiert – und zwar 18 Mal von insgesamt 50 Versuchen. Das ist eine Wiederholungsrate von 36 Prozent. Bei etwas, das „zufällig“ sein soll.
Die Studie, die aufhorchen lässt
Das KI-Sicherheitsunternehmen Irregular (Frontier AI Security) hat im Februar 2026 die Passwortgenerierung der großen Sprachmodelle systematisch untersucht – Claude, ChatGPT und Gemini in ihren jeweils aktuellen Versionen. Das Ergebnis ist eindeutig und ernüchternd.
Die Forscher baten jedes Modell, 50 verschiedene 16-stellige Passwörter mit Groß- und Kleinbuchstaben, Zahlen und Sonderzeichen zu generieren. Dann analysierten sie die Ergebnisse mit dem Shannon-Entropie-Verfahren – einem mathematischen Maß dafür, wie unvorhersagbar eine Zeichenfolge wirklich ist.
Das Ergebnis: LLM-generierte 16-Zeichen-Passwörter haben in der Praxis gerade einmal 20 bis 27 Bits Entropie. Ein echtes, kryptografisch zufälliges Passwort derselben Länge hätte 98 bis 120 Bits. Das klingt abstrakt – bedeutet konkret aber: Ein Angreifer könnte diese Passwörter in wenigen Stunden knacken, sogar auf alter Hardware aus den 2000ern.
Das steckt dahinter – und es ist kein Bug, sondern ein Feature
Das Problem sitzt tief in der Architektur jedes Sprachmodells. LLMs funktionieren, indem sie das jeweils wahrscheinlichste nächste Token vorhersagen – auf Basis ihrer Trainingsdaten. Genau das macht sie so nützlich: Sie produzieren plausible, sinnvolle Texte.
Für Passwörter ist genau das aber katastrophal. Sichere Passwörter brauchen das genaue Gegenteil: echte Zufälligkeit, bei der jedes Zeichen mit exakt gleicher Wahrscheinlichkeit gewählt wird, vollkommen unabhängig vom vorherigen. Technisch nennt sich das CSPRNG – Cryptographically Secure Pseudorandom Number Generator. LLMs haben davon schlicht keinen.
Die Muster, die die Studie aufdeckt, sind verblüffend konkret:
- Claude Opus 4.6 lieferte bei 50 Versuchen nur 30 verschiedene Passwörter – eines davon 18 Mal.
- GPT-5.2 generierte Passwörter, die fast ausnahmslos mit dem Buchstaben „v“ beginnen.
- Gemini 3 Flash startet konsequent mit „K“ oder „k“.
- Selbst das Erhöhen der sogenannten „Temperature“ – also des Kreativitätsgrades des Modells – ändert nichts daran. Claude auf maximaler Temperatur lieferte dieselben Muster; auf Temperatur 0.0 kam jedes Mal exakt dasselbe Passwort.
„Vibe Passwords“: Wenn KI-Code zum Sicherheitsrisiko wird
Irregular hat für diese Kategorie sogar einen eigenen Begriff geprägt: „Vibe Passwords“. Passwörter, die auf den ersten Blick stark wirken, es aber nicht sind – weil sie von einem Modell stammen, das auf Plausibilität optimiert ist, nicht auf Unvorhersagbarkeit.
Besonders heikel: Das Problem beschränkt sich längst nicht mehr auf normale Nutzer, die ChatGPT nach einem Passwort fragen. Coding-Agenten wie Claude Code, OpenAI Codex oder Gemini-CLI generieren solche Passwörter still und heimlich im Hintergrund – eingebettet in Docker-Compose-Dateien, .env-Files oder Setup-Skripte. Entwickler bekommen das oft gar nicht mit.
Die Forscher suchten auf GitHub nach charakteristischen Zeichenfolgen aus LLM-Passwörtern – und wurden vielfach fündig. In echten Projekten, echten Konfigurationsdateien, echten Produktionssystemen.

Was du stattdessen tun solltest
Die gute Nachricht: Das Problem ist einfach zu umgehen. Du brauchst dafür keinen Informatikabschluss.
- Passwortmanager mit eingebautem Generator nutzen: Bitwarden (kostenlos, Open Source), 1Password oder KeePass verwenden intern echte kryptografische Zufallsgeneratoren. Das ist der entscheidende Unterschied.
- Lange Passwörter wählen: 16 bis 24 Zeichen, gemischte Zeichenklassen – aber eben vom Passwortmanager generiert, nicht vom Chatbot.
- Wo möglich: Passkeys nutzen. FIDO2/WebAuthn macht die Stärke des Passworts irrelevant, weil gar keins mehr übertragen wird. Das ist die sicherste Option.
- Entwickler aufgepasst: KI-generierten Code auf eingebettete Passwörter prüfen und – falls gefunden – sofort rotieren.
Fazit: KI ist viel – aber kein Zufallsgenerator
KI-Sprachmodelle können erklären, schreiben, programmieren, übersetzen – und dabei erstaunliches leisten. Aber sie können prinzipbedingt keine echten Zufallszahlen erzeugen. Wer LLMs trotzdem für Passwörter nutzt, bekommt etwas, das nach Sicherheit aussieht – aber keine ist.
Die Irregular-Studie zeigt dabei etwas Grundsätzliches: KI produziert Outputs, die „richtig aussehen“ – Passwörter, die stark wirken, Konfigurationen, die sicher erscheinen. Das ist genau das, wofür LLMs optimiert wurden. In der Sicherheitswelt ist das eine gefährliche Eigenschaft.
Die Regel ist einfach: Für Passwörter gibt es spezialisierte Werkzeuge. Die sind kostenlos, einfach zu nutzen – und tun genau das, was ein Sprachmodell nicht kann: echte Zufälligkeit liefern.
Quelle: Irregular (Frontier AI Security), „Vibe Password Generation: Predictable by Design“, Februar 2026 – irregular.com/publications/vibe-password-generation