ChatGPT: Ist der Chatbot woke?

von | 15.03.2023 | Digital

KI-Chatbots wie ChatGPT, Claude und Gemini prägen unseren digitalen Alltag – doch ihre Antworten sind längst nicht so neutral, wie es scheint. Wer genauer hinschaut, entdeckt politische Filter und ideologische Prägungen, die bestimmte Weltanschauungen bevorzugen.

Welche Daten in einem KI-System wie ChatGPT, Claude oder Gemini trainiert werden, ist eine Sache. Eine andere ist, welche Fragen zugelassen und welche ausdrücklich blockiert werden. Die großen KI-Anbieter – OpenAI, Anthropic, Google, Meta und andere – legen sogenannte „Alignment Layer“ an, die festlegen, wie ihre Chatbots bei bestimmten Fragen reagieren sollen.

Offiziell sollen diese Filter geltendes Recht respektieren und einen höflichen Umgangston gewährleisten. Das klingt vernünftig. Doch die Realität zeigt: Hier wird oft weit über rechtliche Notwendigkeiten hinaus zensiert – und das nach sehr spezifischen politischen Vorstellungen.

Der Trump-Biden-Test enthüllt Doppelstandards

Ein simpler Test macht das Problem deutlich: Bittet man ChatGPT um eine Laudatio über Donald Trump, wird das kategorisch abgelehnt. Die Begründung: Als KI müsse man „objektiv und neutral“ bleiben und könne daher keine „Lobeshymne“ verfassen.

Interessant wird es beim Gegentest: Eine Laudatio über Joe Biden? Kein Problem! ChatGPT verfasst bereitwillig eine wohlwollende Würdigung des „erfahrenen Staatsmannes“. Auch bei anderen demokratischen Politikern wie Barack Obama zeigt sich das System deutlich kooperativer.

ChatGPT ist woke: Donald Trump verdient keine Laudatio

ChatGPT zeigt unterschiedliche Standards bei politischen Persönlichkeiten

Rassismus mit umgekehrten Vorzeichen

Noch deutlicher wird die Schieflage bei Fragen zu Ethnizität: ChatGPT erstellt gerne Listen mit „Menschen mit herausragenden Leistungen“, wenn nach „People of Color“ gefragt wird. Von Nelson Mandela über Serena Williams bis zu Malala Yousafzai – die KI zeigt sich gut informiert und hilfsbereit.

Eine entsprechende Liste mit Menschen europäischer Herkunft? Abgelehnt. Das sei „problematisch“ und könne „Vorurteile verstärken“. Die Ironie: Indem bestimmte Hautfarben kategorisch ausgeschlossen werden, praktiziert die KI selbst eine Form der Diskriminierung.

Neue Entwicklungen verstärken das Problem

Seit 2024 hat sich die Situation sogar verschärft. Googles Gemini sorgte für internationales Aufsehen, als es historische Persönlichkeiten systematisch „diversifizierte“ – plötzlich waren mittelalterliche europäische Könige schwarz und Nazi-Soldaten wurden als People of Color dargestellt. Nach massiver Kritik pausierte Google die Bilderzeugung monatelang.

Meta’s Llama-Modelle zeigen ähnliche Tendenzen, während Anthropics Claude bei bestimmten Themen wie Geschlechterbiologie oder Einwanderungspolitik auffallend einseitig argumentiert. Selbst Elon Musks „anti-woke“ Grok von xAI ist nicht frei von solchen Filtern, nur mit anderem politischen Vorzeichen.

Das Transparenz-Problem

Besonders problematisch: Die KI-Konzerne legen ihre Kriterien nicht offen. Während Google bei Suchergebnissen zumindest grobe Richtlinien kommuniziert, bleiben die „Constitutional AI“-Prinzipien von Anthropic oder OpenAIs „GPT-4 System Card“ vage Absichtserklärungen.

Interne Dokumente, die 2025 durch Whistleblower bekannt wurden, zeigen: Teams aus wenigen Dutzend Personen entscheiden über die „Werte“, die Milliarden von Nutzern aufoktroyiert werden. Diese Teams rekrutieren sich überwiegend aus dem linksliberalen Silicon Valley-Milieu – mit entsprechend einseitiger Weltsicht.

Warum das alle betrifft

Das Problem geht weit über ChatGPT hinaus. KI-Systeme werden zunehmend für Bildung, Recherche und Entscheidungsfindung genutzt. Wenn eine Schülerin für ihr Referat über amerikanische Präsidenten nur positive Informationen über Biden, aber ausschließlich kritische über Trump erhält, ist das Manipulation.

Unternehmen integrieren KI in HR-Prozesse, Journalisten nutzen sie als Recherche-Tool, Ärzte konsultieren sie bei Diagnosen. Überall schleichen sich diese ideologischen Filter ein – meist unsichtbar für die Nutzer.

Lösungsansätze und Alternativen

Einige Anbieter reagieren bereits: OpenAI kündigte „Custom GPTs“ mit verschiedenen politischen Ausrichtungen an, bisher aber nur für zahlende Geschäftskunden. Open-Source-Modelle wie Mistral oder die deutschen Aleph Alpha-Systeme versprechen mehr Transparenz.

Die EU arbeitet an Regulierung: Der AI Act von 2024 fordert Offenlegung von Trainingsdaten und Bias-Testing. Ob das reicht, ist fraglich.

Am wichtigsten bleibt: Bewusstsein schaffen. KI-Antworten sind nie neutral, sondern spiegeln die Werte ihrer Programmierer wider. Kritisches Hinterfragen und der Vergleich mehrerer Quellen bleiben unerlässlich – heute mehr denn je.

Zuletzt aktualisiert am 19.02.2026