Wer lügt häufiger: Mensch oder Maschine? Anthropic-Chef Amodei wagt die Prognose, dass KI im Vergleich besser wegkommt. Ein guter Grund, mal genauer hinzuschauen.
Dario Amodei, Chef des KI-Unternehmens Anthropic, hat kürzlich eine steile These in den Raum gestellt: Moderne KI-Modelle halluzinieren seltener als Menschen.
Eine Behauptung, die nicht nur die Tech-Welt aufhorchen lässt, sondern uns auch einen Spiegel vorhält. Denn während wir uns über die „Lügen“ der KI aufregen, übersehen wir gerne, wie kreativ wir Menschen täglich mit der Wahrheit umgehen.
Das große Missverständnis: KI „lügt“ nicht – sie rät
Zunächst eine wichtige Klarstellung: KI-Modelle wie ChatGPT oder Claude „lügen“ nicht im klassischen Sinne. Sie haben keine Absicht zu täuschen. Aktuelle LLMs „raten“ nur die Antwort, basierend auf statistischen Mustern aus ihren Trainingsdaten.
Wenn der KI-Chatbot Claude behauptet, dass Napoleon 1823 gestorben sei (tatsächlich war es 1821), dann ist das keine bewusste Falschaussage, sondern ein statistischer Fehler.
Menschen hingegen lügen durchaus bewusst – und das erstaunlich häufig. Studien zeigen, dass durchschnittliche Erwachsene etwa ein- bis zweimal täglich lügen. Von harmlosen sozialen Notlügen („Schönes Outfit!“) bis hin zu größeren Täuschungen. Doch das ist nur die Spitze des Eisbergs.
Die unbewussten Lügen: Wenn unser Gehirn uns betrügt
Viel faszinierender sind die unbewussten „Lügen“ unseres Gehirns. Unser Gedächtnis ist kein Videorekorder, sondern ein kreativer Geschichtenerzähler. Jedes Mal, wenn wir uns an etwas erinnern, konstruieren wir die Erinnerung neu – und verändern sie dabei subtil.
Psychologen nennen das „konfabulieren“: Wir füllen Gedächtnislücken unbewusst mit plausibel klingenden Details auf. Anders als bei KI-Halluzinationen glauben wir diese selbst erfundenen Geschichten dann auch noch felsenfest. Ein klassisches Beispiel sind Zeugenaussagen vor Gericht – oft völlig ehrlich gemeint, aber faktisch falsch.
Hinzu kommen kognitive Verzerrungen: Der Bestätigungsfehler lässt uns Informationen so interpretieren, dass sie unsere Vorannahmen stützen. Bei der Rückschaufehler behaupten wir, Ereignisse „schon immer“ vorhergesagt zu haben. Und beim Dunning-Kruger-Effekt überschätzen Unwissende systematisch ihr Wissen – ein Phänomen, das in Internetdiskussionen täglich zu beobachten ist.
Der Unterschied: Selbstbewusstsein bei Unwissen
Amodei räumt ein, dass das größte Problem nicht der Fehler an sich sei, sondern das enorme Selbstbewusstsein, mit dem die KI falsche Informationen als Tatsachen präsentiert. Hier zeigt sich eine perfide Parallele zum Menschen: Auch wir präsentieren Halbwissen oft mit erstaunlicher Selbstsicherheit.
Der entscheidende Unterschied liegt allerdings in der Absicht. Menschen können bewusst lügen, manipulieren und täuschen. Sie können strategisch Informationen zurückhalten oder verzerren. KI-Modelle kennen diese Intentionalität nicht – sie „halluzinieren“ ohne böse Absicht.
Warum uns KI-„Lügen“ mehr stören als menschliche
Trotzdem empören wir uns mehr über KI-Fehler als über menschliche Unzuverlässigkeit. Das liegt an unseren Erwartungen: Von Computern erwarten wir perfekte Präzision. Das Problem ist nicht, dass es besser als bei Menschen ist, sondern dass man „KI“ Modelle geschaffen hat, die schlecht darin sind, worin Computer eigentlich gut sind: Korrekte Informationen bereitstellen.
Diese Erwartungshaltung ist durchaus berechtigt. Wenn ein Rechner 2+2 berechnet, erwarten wir das korrekte Ergebnis 4, nicht eine kreative Interpretation. Bei KI-Sprachmodellen verschwimmen jedoch die Grenzen zwischen Berechnung und Interpretation.

Messbarkeit: Das Dilemma der Vergleichbarkeit
Die Debatte wird durch die Schwierigkeit befeuert, Halluzinationen überhaupt verlässlich zu messen. Bisherige Benchmarks vergleichen meist nur verschiedene KI-Modelle untereinander, nicht aber die KI mit dem Menschen. Wie misst man objektiv, wer „wahrer“ ist – Mensch oder Maschine?
Bei faktischen Fragen mag das noch machbar sein. Aber wie bewertet man emotionale Wahrheiten, soziale Kontexte oder kulturelle Nuancen? Ein Mensch, der aus Höflichkeit ein langweiliges Gespräch als „interessant“ bezeichnet, lügt technisch gesehen. Gesellschaftlich ist diese „Lüge“ aber wertvoller als brutale Ehrlichkeit.
Die unbequeme Erkenntnis
Amodeis provokante These zwingt uns zu einer unbequemen Selbstreflexion: Vielleicht sind wir Menschen gar nicht so zuverlässig, wie wir gerne glauben. Unsere Erinnerungen sind fehlbar, unsere Wahrnehmung verzerrt, und unsere Erzählungen subjektiv gefärbt.
KI-Modelle mögen halluzinieren, aber sie tun es wenigstens ohne Hintergedanken. Sie wollen uns nicht manipulieren, ihre Meinung aufdrängen oder ihr Ego stärken. Ihre „Lügen“ sind Versehen, unsere oft Kalkül.

Was das für uns bedeutet
Die Erkenntnis sollte nicht zu blindem KI-Vertrauen führen, sondern zu kritischem Denken – sowohl gegenüber Maschinen als auch gegenüber uns selbst. Statt KI-Antworten ungefiltert zu übernehmen, sollten wir sie verifizieren. Aber das Gleiche gilt für menschliche Aussagen, besonders unsere eigenen.
Am Ende geht es nicht darum, wer seltener lügt – Mensch oder Maschine. Es geht darum, die Grenzen beider zu verstehen und entsprechend vorsichtig zu sein. Denn in einer Welt voller Halbwahrheiten ist gesunde Skepsis unsere wertvollste Währung – egal ob die Quelle aus Fleisch und Blut oder aus Code und Algorithmen besteht.