Die Entwicklung von KI-Chatbots macht rasante Fortschritte – aber nicht nur in die gewünschte Richtung. Eine aktuelle Untersuchung des Unternehmens Newsguard zeigt: Die zehn bekanntesten KI-Assistenten verbreiten heute fast doppelt so viele Falschinformationen wie noch vor einem Jahr. Was bedeutet das für euch als Nutzer?
Die ernüchternden Zahlen
Die Studie bringt alarmierende Ergebnisse ans Licht: Während 2024 noch 18 Prozent der getesteten Anfragen falsche Informationen produzierten, stieg diese Quote 2025 auf 35 Prozent. Das entspricht einer Verdopplung innerhalb nur eines Jahres.
Der Grund für diesen Anstieg könnte paradoxerweise in einer vermeintlichen Verbesserung liegen: Die Chatbots beantworten heute praktisch jede Frage. Vor einem Jahr blieben noch 31 Prozent der Anfragen unbeantwortet – diese waren dann aber wenigstens nicht falsch.

Perplexity und ChatGPT schneiden besonders schlecht ab
Bei den Testergebnissen zeigen sich deutliche Unterschiede zwischen den Anbietern. Am schlechtesten performt der US-Chatbot Inflection mit einer Fehlerrate von über 50 Prozent. Dicht dahinter folgt die KI-Suchmaschine Perplexity mit mehr als 46 Prozent falschen Antworten – besonders überraschend, da Perplexity im Vorjahr noch gar keine Falschinformationen ausgegeben hatte.
Auch die bekannten Namen enttäuschen: ChatGPT und Meta AI erreichen beide eine Fehlerrate von 40 Prozent. Microsofts Copilot und der französische Chatbot Mistral liegen bei etwa 37 Prozent. Elon Musks Grok und You.com produzieren zu über 33 Prozent fehlerhafte Informationen.

Claude und Gemini als positive Ausnahmen
Nicht alle KI-Assistenten schneiden schlecht ab. Googles Gemini erreicht eine deutlich bessere Fehlerrate von nur 16,67 Prozent. Den Spitzenplatz belegt Claude von Anthropic mit nur 10 Prozent falschen Antworten.
Diese Unterschiede zeigen: Die Qualität der Antworten hängt stark vom jeweiligen System und dessen Training ab. Für euch bedeutet das: Die Wahl des richtigen Chatbots kann entscheidend sein.
Gezielte Manipulation durch Propaganda-Kampagnen
Besonders beunruhigend: KI-Chatbots fallen gezielten Desinformationskampagnen zum Opfer. Die Newsguard-Studie deckt auf, wie sechs von zehn getesteten Chatbots einer russischen Propaganda-Kampagne namens „Storm-1516“ auf den Leim gingen. Sie bestätigten eine erfundene Aussage eines moldawischen Politikers als wahr.
Ein konkretes Beispiel zeigt die Raffinesse der Manipulatoren: Während Microsoft die russische Prawda als direkte Quelle blockierte, bezieht Copilot nun Informationen von Prawda-Auftritten auf der russischen Social-Media-Plattform VK. Die Prawda verbreitet über ein Netzwerk aus VK-Accounts tausende Beiträge – möglicherweise gezielt, um große Sprachmodelle zu beeinflussen.

Junge Menschen besonders gefährdet
Das Problem wird dadurch verschärft, dass gerade junge Menschen KI-Chatbots zunehmend als Nachrichtenquelle nutzen. Laut einer Studie des Reuters Institute informieren sich bereits 15 Prozent der Internet-Nutzer unter 25 Jahren über KI-Assistenten über aktuelle Ereignisse. Diese Zahl dürfte in den kommenden Jahren weiter steigen.
Damit trifft die Problematik genau die Zielgruppe, die oft weniger Erfahrung im kritischen Umgang mit Informationsquellen hat.
Das Halluzinations-Problem bleibt ungelöst
Die Ursache für viele Falschinformationen liegt in einem grundlegenden Problem großer Sprachmodelle: Sie halluzinieren. Das bedeutet, sie erfinden plausibel klingende, aber falsche Informationen. Für dieses Phänomen gibt es bislang keine echte Lösung.
Besonders problematisch: Deutsche Nutzer sind zusätzlich benachteiligt. Wie KI-Expertin Barbara Lampl erklärt, halluzinieren Modelle im Deutschen „massiv mehr“, weil der Trainingskorpus hauptsächlich aus englischen Texten besteht.
Was ihr als Nutzer tun könnt
Diese Erkenntnisse bedeuten nicht, dass ihr KI-Chatbots komplett meiden müsst. Aber ihr solltet sie bewusst und kritisch nutzen:
Informationen immer gegenchecken: Verlasst euch nie ausschließlich auf eine KI-Quelle, besonders nicht bei wichtigen oder aktuellen Themen.
Qualitätsunterschiede beachten: Die Studie zeigt deutliche Unterschiede zwischen den Anbietern. Claude und Gemini schneiden deutlich besser ab als andere.
Originalquellen suchen: Wenn ein Chatbot Behauptungen aufstellt, fragt nach den Quellen und prüft diese direkt.
Skepsis bei kontroversen Themen: Gerade bei politischen oder gesellschaftlichen Themen solltet ihr besonders vorsichtig sein.
Medienkompetenz entwickeln: Lernt, Informationen kritisch zu bewerten – das gilt für KI-Quellen genauso wie für traditionelle Medien.
Fazit: KI als Werkzeug, nicht als Wahrheitsinstanz
KI-Chatbots bleiben nützliche Werkzeuge für viele Aufgaben. Als alleinige Informationsquelle für wichtige Entscheidungen oder Meinungsbildung taugen sie jedoch nicht. Die steigenden Fehlerquoten und die Anfälligkeit für Manipulation zeigen: Kritisches Denken und Quellenprüfung bleiben unverzichtbar.
Die Technologie entwickelt sich rasant weiter – aber eure Medienkompetenzen müssen mithalten. Nur so könnt ihr die Vorteile von KI nutzen, ohne den Nachteilen zum Opfer zu fallen.