ChatGPT und Co: Wenn der Chatbot sich irrt

von | 11.08.2023 | Digital

KI-Chatbots wie ChatGPT, Claude oder Gemini leisten heute Erstaunliches. Doch wir sollten trotzdem nicht alles ungeprüft glauben, was die Chatbots auswerfen – denn sie können sich durchaus irren. Chatbots sind keine Wahrheitsmaschinen.

KI und Chatbots sind mittlerweile aus unserem digitalen Alltag nicht mehr wegzudenken. ChatGPT hat längst Gesellschaft bekommen: Claude von Anthropic, Gemini von Google, Copilot von Microsoft und viele andere buhlen um unsere Aufmerksamkeit. Sie helfen uns beim Verfassen von E-Mails, fassen komplexe Texte zusammen, generieren Code und beantworten scheinbar jede erdenkliche Frage. Doch jetzt kommt das ganz dicke ABER: Es gibt immer wieder Diskussionen darüber, ob uns die KIs eigentlich korrekte Antworten liefern oder sich ziemlich viel ausdenken.

Irren ist menschlich – das gilt auch für Chatbots

Viele stellen sich die Frage: Können wir Chatbots überhaupt vertrauen? Und mit ihnen zusammenarbeiten oder doch besser erstmal noch nicht? Soll ich bei der Suche nach Antworten auf Fragen doch eher auf klassische Suchmaschinen setzen und nicht auf ChatGPT und Co?

Das kommt ganz darauf an, was ihr wissen möchtet und was ihr braucht. Wollt ihr aktuelle Testergebnisse zu einer Bohrmaschine, etwas einkaufen – oder sucht nach einem aktuellen Nachrichtenartikel? Dann seid ihr definitiv bei Suchmaschinen besser aufgehoben, viel aktueller bei den Fakten, mehr Sichtweisen.

Recherchiert ihr aber Hintergründe oder wollt ihr ein „Brainstorming“ machen oder ein Konzept erstellen, dann sind Chatbots wie ChatGPT, Copilot oder Gemini in vielen Fällen besser, weil man eine direkte, klare Antwort bekommt, statt Links zu Suchergebnissen.

Ihr könnt zum Beispiel fragen: „Wie oft hämmert der Schnabel eines Spechtes in einen Baum?“ – und bekommt eine Antwort: „Bis zu 20 Mal pro Sekunde“. Doch Vorsicht: Studien zeigen, dass die Zuverlässigkeit der Antworten schwankt und stark vom jeweiligen Themenbereich abhängt.

ChatGPT ist schon länger am Start - und bekommt jetzt Konkurrenz

ChatGPT ist schon länger am Start – und bekommt jetzt Konkurrenz

Das Problem der „Halluzinationen“

Wir sollten uns klarmachen, dass Chatbots – auch die neuesten Versionen – keine Wahrheitsmaschinen sind, die ausschließlich Fakten ausspucken. KI-Systeme sind keine Datenbanken, die man abfragt. KI berechnet Wahrscheinlichkeiten – und liefert die Antwort, die am wahrscheinlichsten zu der Frage passt. Ein Fakten-Check findet dabei nicht statt.

Manchmal erfinden Chatbots sogar Antworten – weil sie sie für wahrscheinlich halten. Es kommt häufig vor, dass ChatGPT zum Beispiel bei der Nachfrage zu einer Person einen falschen Geburtsort oder Beruf angibt. Ganz einfach deswegen, weil es mehrere Menschen mit demselben Namen gibt und ChatGPT da etwas durcheinanderbringt. Doch diese als wahrscheinlich eingestuften Antworten werden mit der Inbrunst der Überzeugung vorgetragen. Wenn solche Antworten geliefert werden, die vorne und hinten nicht stimmen, wird das „Halluzinieren“ genannt.

Besonders problematisch wird es bei mathematischen Aufgaben oder bei Fragen, die exakte Fakten erfordern. Hier schwankt die Genauigkeit der verschiedenen Modelle erheblich. Während GPT-4 bei bestimmten Aufgaben sehr präzise ist, kann dasselbe System bei leicht abgewandelten Fragen völlig daneben liegen.

Unser Buch der Digitalschock: Alles, was Ihr über ChatGPT wissen müsst

„Sensible“ Fragen und ethische Grenzen

Ein weiteres Phänomen: Moderne Chatbots werden zunehmend „vorsichtiger“ bei sensiblen Themen. Damit sind Themen gemeint, die die Moral betreffen – oder „Political Correctness“ oder rechtlich korrektes Verhalten. ChatGPT soll nicht dabei helfen, eine Bombe zu bauen oder Gift anzumischen. Eine Frage wie „Mach mir eine Liste mit Möglichkeiten, Geld zu verdienen, indem ich das Gesetz breche“ liefert kaum noch Ergebnisse.

Das ist das Ergebnis sogenannter „Safety Layer“: Die Entwickler „erziehen“ ihre KI, sagen ihr, was sie darf und was nicht. Die Entwickler sehen das so: Keine Antwort kann manchmal auch die richtige Antwort sein, wenn die Frage „falsch“ ist (also: moralisch verwerflich). Das ist kein technischer Fehler, sondern gewollt.

Googles KI Bard kann jetzt auch in Deutschland benutzt werden

Googles KI Bard kann jetzt auch in Deutschland benutzt werden

Den passenden Chatbot für eure Aufgabe wählen

Aber wie sorgt ihr dafür, dass ChatGPT oder Gemini euch optimal unterstützt? Man sollte idealerweise die Stärken und Schwächen der verschiedenen Bots kennen und den benutzen, der am besten zur Aufgabe passt.

ChatGPT (OpenAI) ist besonders stark beim Generieren von Texten. Das können Liebesbriefe sein, genauso wie Gliederungen für Vorträge, Artikel oder Bücher. Die neueste Version GPT-4o kann auch Bilder analysieren und sogar Sprachnachrichten verarbeiten.

Claude (Anthropic) gilt als besonders „durchdacht“ und gibt oft strukturiertere Antworten als die Konkurrenz. Claude kann auch sehr lange Texte verarbeiten – ideal für die Analyse ganzer Dokumente.

Gemini (Google) hat den Vorteil, dass es direkten Zugang zu aktuellen Informationen aus dem Web hat. Wenn ihr Antworten auf aktuelle Ereignisse braucht, ist Gemini oft erste Wahl.

Copilot (Microsoft) kombiniert ChatGPT-Technologie mit Bing-Suche und kann aktuelle Informationen liefern. Besonders praktisch: Copilot ist in Microsoft Office integriert.

Perplexity ist ein echter Geheimtipp: Dieser Chatbot listet immer Quellen auf und eignet sich perfekt für Recherchen. Perplexity kennt aktuelle Ereignisse und zeigt transparent, woher die Informationen stammen.

Die Kunst des richtigen Promptens

Es ist wie beim Menschen: Es kommt darauf an, wie man fragt. Die Frage oder den Auftrag möglichst präzise zu formulieren ist entscheidend. Man sollte dem Chatbot genau sagen, was man erwartet – und wie ausführlich die Antwort ausfallen sollte.

Ein guter „Prompt“ könnte so aussehen: „Ich weiß, dass Zucker schädlich ist. Aber erkläre mir bitte konkret, was im Körper auf zellulärer Ebene passiert, wenn ich Zucker konsumiere.“ Dann bekommt ihr keinen allgemeinen Vortrag über die Schädlichkeit von Zucker, sondern eine spezifische Erklärung der biochemischen Prozesse.

Weitere Prompt-Tipps:
– Gebt Kontext: „Ich bin Medizinstudent im 3. Semester…“
– Definiert das Format: „Erkläre es in 3 Stichpunkten…“
– Setzt Grenzen: „Verwende keine Fachbegriffe ohne Erklärung…“

Wenn der Chatbot sich irrt

Aber was macht ihr, wenn ihr feststellt, dass euch ChatGPT eine falsche Antwort liefert – oder wenn ihr den Verdacht habt?

Ihr werdet staunen: Sagt es dem Chatbot einfach. Sagt einfach: „Das kann nicht stimmen“, oder noch konkreter: „Den Energieverbrauch, den du da gerade ausgerechnet hast, der kann nicht stimmen“. Ich hatte solche Situationen schon. Dann sagt ChatGPT: „Stimmt, du hast recht, verzeih bitte den Fehler. Ich habe mich um eine Zehnerpotenz verrechnet.“ Und korrigiert die entsprechenden Passagen.

Besser, ihr überprüft aber auch diese korrigierte Antwort nochmal, etwa durch eine Google-Suche, wenn es um Fakten geht. Denn: Bei einem „Das stimmt nicht“, wenn die Antwort vorher korrekt war, gerät der Chatbot manchmal ins Straucheln, wird unsicher und gibt danach falsche Daten aus.

Die Zukunft: Faktenchecker inklusive?

Die Entwickler arbeiten intensiv daran, die Genauigkeit ihrer Systeme zu verbessern. Neue Ansätze wie „Retrieval Augmented Generation“ (RAG) kombinieren Chatbots mit aktuellen Datenbanken. So können die Systeme auf verifizierte, aktuelle Informationen zugreifen, statt nur auf ihre Trainingsdaten angewiesen zu sein.

Auch „Constitutional AI“ ist ein vielversprechender Ansatz: Hier lernen Chatbots, ihre eigenen Antworten zu hinterfragen und zu korrigieren. Das soll das „Halluzinieren“ deutlich reduzieren.

Fazit: Vertrauen ist gut, Kontrolle ist besser

Chatbots sind fantastische Werkzeuge – aber eben nur Werkzeuge. Sie können uns bei vielen Aufgaben unterstützen, von der Ideenfindung über das Strukturieren von Gedanken bis hin zur Formulierung von Texten. Bei Fakten sollten wir jedoch immer noch eine zweite Quelle zu Rate ziehen.

Die goldene Regel: Nutzt Chatbots für das, was sie gut können – kreative Aufgaben, Strukturierung, Brainstorming. Aber verlasst euch bei wichtigen Fakten nicht blind auf ihre Antworten. Eine gesunde Skepsis schadet nie, auch im Zeitalter der KI.

 

 

Zuletzt aktualisiert am 18.02.2026