Zensur durch KI: Wie neutral sind ChatGPT, DeepSeek & Co. wirklich?

von | 04.02.2025 | KI

Künstliche Intelligenz (KI) hat längst unseren Alltag erobert – sei es als Suchmaschine, Chatbot oder kreatives Tool für Texte, Bilder oder Videos. Viele Menschen nutzen mittlerweile fast blind KI-Modelle wie ChatGPT, Gemini oder Perplexity, um Informationen zu erhalten. Doch wie unabhängig sind die Antworten dieser Systeme wirklich?

Während westliche KI-Modelle oft mit ethischen Filtermechanismen arbeiten, die Fehlinformationen oder problematische Inhalte vermeiden sollen, unterliegen chinesische KIs wie DeepSeek einer strengen staatlichen Kontrolle. Doch wo liegt die Grenze zwischen „ethischer Moderation“ und echter Zensur? Und gibt es überhaupt eine neutrale KI?

Chatbots wie ChatGPT oder Gemini werden sich auch in 2025 enorm entwickeln
Chatbots wie ChatGPT oder Gemini werden sich auch in 2025 enorm entwickeln

China mischt mit: DeepSeek und Qwen auf dem Vormarsch

Bisher wurden die leistungsfähigsten KI-Modelle fast ausschließlich in den USA entwickelt. OpenAI mit ChatGPT, Google mit Gemini und Anthropic mit Claude – sie alle kommen aus dem Silicon Valley. Doch in den letzten Wochen haben sich neue Player aus China ins Rampenlicht gedrängt: DeepSeek und Qwen.

Besonders DeepSeek sorgt für Furore: Das Modell ist leistungsstark, schnell und beeindruckt mit präzisen Antworten. Doch ein entscheidender Unterschied zu westlichen KIs fällt auf: Es gibt Themen, zu denen DeepSeek konsequent schweigt.

Fragt man etwa nach dem Tian’anmen-Massaker von 1989, bleibt die Antwort aus. Die KI stoppt mitten im Satz und liefert nur ein knappes „Dazu kann ich nichts sagen“. Das ist kein technischer Fehler, sondern ein bewusstes Design: Politische Ereignisse, die in China als sensibel gelten, dürfen von dort entwickelten KIs nicht kommentiert werden.

Damit wird klar: Während westliche KI-Modelle Informationen filtern, um ethische oder gesellschaftliche Standards einzuhalten, unterliegen chinesische Modelle einer gezielten politischen Zensur.

ChatGPT hat verzerrende Filter
ChatGPT hat verzerrende Filter

Aber auch ChatGPT filtert – nur anders

Doch ist die Situation im Westen wirklich so viel anders? Auch ChatGPT, Gemini oder Claude geben nicht einfach alles wieder, was im Netz verfügbar ist. Ihre Antworten sind ebenfalls gefiltert – wenn auch aus anderen Gründen.

Die großen KI-Modelle westlicher Entwickler sind so programmiert, dass sie ihre Antworten an gesellschaftliche Normen und moralische Standards anpassen. Dies geschieht durch sogenannte Sicherheitsmechanismen und ethische Leitplanken.

Ein Beispiel:

• Fragt man ChatGPT, wie man eine Waffe baut, erhält man keine Antwort – aus Sicherheitsgründen.

• Fragt man nach spezifischen Kriminalitätsstatistiken, bekommt man oft nur eine vorsichtige oder verallgemeinerte Antwort, um keine gesellschaftlichen Vorurteile zu verstärken.

Das Problem: Manche dieser Filter sorgen dafür, dass auch neutrale oder wissenschaftlich fundierte Informationen abgeschwächt oder verzerrt werden.

Ein Beispiel aus der Medizin:

Studien zeigen, dass sich die Symptome eines Herzinfarkts bei Männern und Frauen unterscheiden. Wenn eine KI jedoch aus Sorge vor Geschlechter-Stereotypen diese Unterschiede nur vorsichtig oder gar nicht thematisiert, kann das im schlimmsten Fall zu Fehlinformationen führen.

Ähnlich ist es bei wissenschaftlichen Debatten, die politisch aufgeladen sind. Wenn eine KI aus Angst vor Kontroversen bestimmte Erkenntnisse verharmlost oder verzerrt, kann das langfristig unsere Wahrnehmung der Realität verändern.

Die große Frage: Gibt es eine neutrale KI?

Die meisten Menschen gehen davon aus, dass KI-Modelle objektive Wahrheiten liefern. Doch das ist ein Trugschluss.

Eine KI kann nur mit den Daten arbeiten, mit denen sie trainiert wurde. Und wenn diese einseitig sind oder von bestimmten Perspektiven dominiert werden, entstehen Verzerrungen – auch bekannt als Bias.

Ein Beispiel:

Eine Studie der Stanford University hat gezeigt, dass einige KI-Modelle in politischen Fragen eine leichte Neigung nach links oder rechts haben können – je nachdem, welche Trainingsdaten verwendet wurden.

• Eine KI, die überwiegend mit westlichen Medien trainiert wurde, reflektiert einen liberal-demokratischen Blickwinkel.

• Eine KI, die fast nur chinesische Quellen nutzt, folgt stärker den offiziellen Positionen der chinesischen Regierung.

Das bedeutet: Verschiedene KI-Modelle präsentieren unterschiedliche Realitäten.

Qwen: Ein weiterer Chatbot aus China von Alibaba
Qwen: Ein weiterer Chatbot aus China von Alibaba

Wie kann ich erkennen, ob eine KI Inhalte zensiert?

Ganz vermeiden lässt sich das Problem nicht – aber es gibt Möglichkeiten, bewusster mit KI-Informationen umzugehen.

1. Mehrere KIs befragen

Viele Plattformen ermöglichen es inzwischen, verschiedene KIs gleichzeitig zu nutzen – etwa Poe.com. Dort kann man ein und dieselbe Frage an ChatGPT, Gemini und Claude stellen und die Antworten vergleichen. Unterschiede zeigen oft, wo Filter greifen.

2. Quellen prüfen

Manche KIs geben Quellen an – andere nicht. Wenn eine KI keine Belege liefert, sollte man skeptisch sein. Man kann auch direkt fragen: „Auf welche Quellen basiert diese Antwort?“

3. Vorsicht bei absoluten Aussagen

Wenn eine KI behauptet, etwas sei „so und nicht anders“, lohnt sich ein kritischer Blick. Seriöse KIs wie ChatGPT formulieren oft vorsichtiger („Nach aktuellem Stand der Forschung…“), aber auch das ist keine Garantie für Neutralität.

Welche KI ist am vertrauenswürdigsten?

Es gibt nicht die eine vertrauenswürdige KI. Doch es gibt Modelle, die transparenter sind als andere:

Open-Source-Modelle wie Mistral oder Llama gelten als transparenter, weil ihre Daten offen einsehbar sind.

ChatGPT und Gemini gelten als wissenschaftlich fundiert – haben aber klare ethische Filter.

DeepSeek ist technisch stark, aber politisch gesteuert, zumindest in sensiblen Themen.

Die wichtigste Regel bleibt: Keine KI sollte die einzige Quelle sein. Immer querlesen, selbst nachdenken, verschiedene Perspektiven einholen.

Die DeepSeek App gibt es für iOS und Android
Die DeepSeek App gibt es für iOS und Android

Was bedeutet das für die Zukunft?

KI wird in den kommenden Jahren noch mehr Einfluss auf unser Wissen und unsere Meinungsbildung haben. Ob Suchmaschinen, Social Media oder persönliche Assistenten – überall greifen wir auf KI-generierte Informationen zu.

Doch je mehr wir uns auf KI verlassen, desto wichtiger wird es, zu verstehen, wer hinter den Systemen steckt und welche Interessen sie verfolgen.

Deshalb wird die Diskussion um Transparenz, Regulierung und Vielfalt in der KI-Entwicklung in den nächsten Jahren immer wichtiger. Der AI Act der EU, der kürzlich in Kraft getreten ist, ist ein erster Schritt in diese Richtung.

Fazit: Keine KI ist wirklich objektiv

Ob staatliche Zensur wie in China oder ethische Filter wie im Westen – völlig neutrale Künstliche Intelligenz gibt es nicht.

Der Unterschied ist jedoch entscheidend:

• In China werden bestimmte Themen aktiv unterdrückt.

• Im Westen sind es gesellschaftliche Leitplanken, die Informationen lenken.

Die Lösung? KI als Werkzeug nutzen, aber nicht als alleinige Quelle der Wahrheit.

Schieb App