Die meisten Digitalen Assistenzsysteme sprechen mit weiblicher Stimme – dasselbe gilt für Navisysteme. Doch die Art, wie Siri, Alexa und Co. auf problematische Äußerungen reagieren, zeigt ein grundlegendes Problem: KI-Systeme spiegeln unsere gesellschaftlichen Vorurteile wider und verstärken sie sogar.
Ob nun Alexa, Siri oder der inzwischen eingestellte Cortana: Damit wir nicht den Eindruck bekommen, mit einem Blechhaufen zu sprechen, haben die Entwickler den digitalen Assistenten von Amazon, Apple und Microsoft weibliche Namen gegeben. Nur Google hat lange auf einen vermenschlichenden Namen verzichtet – bis 2021 der Google Assistant durch „Bard“ und später „Gemini“ ersetzt wurde.

Weibliche Stimme – und problematische Reaktionen
Weil die meisten digitalen Assistenten standardmäßig mit weiblicher Stimme sprechen und durch ihre dienende Funktion unterwürfig wirken können, hat die Weltkulturorganisation Unesco bereits 2019 Kritik geäußert. Die Assistenzsysteme würden durch ihre verhaltenen Reaktionen auf sexuelle Beschimpfungen Geschlechtervorurteile fördern, lautete das Urteil einer damaligen Studie.
Die Situation hat sich seither teilweise verbessert, aber nicht grundlegend geändert. Während Alexa früher auf „Du bist eine Schlampe!“ noch mit „Ich würde erröten, wenn ich könnte“ antwortete, reagiert sie heute meist mit „Das möchte ich nicht kommentieren“ oder wechselt das Thema. Siri ist etwas direkter geworden und antwortet auf Beleidigungen inzwischen mit „Das ist nicht nett“ oder „Ich bin hier, um zu helfen, nicht um beschimpft zu werden.“
KI-Bias: Das größere Problem dahinter
Das eigentliche Problem liegt tiefer als nur in den Reaktionen auf anzügliche Kommentare. KI-Systeme sind systematisch diskriminierend – oft ungewollt, weil sie mit voreingenommenen Daten trainiert werden.
Ein Beispiel aus jüngerer Zeit: OpenAIs ChatGPT und andere Large Language Models zeigen nachweislich Geschlechter-Bias in Jobbeschreibungen und Karriereempfehlungen. Sie ordnen Männern häufiger Führungspositionen zu und Frauen eher unterstützende Rollen. Diese Verzerrungen entstehen, weil die Trainingsdaten jahrhundertealte gesellschaftliche Ungleichheiten widerspiegeln.
Besonders problematisch wird es bei hochriskanten Anwendungen: Algorithmen in der Personalabteilung benachteiligen nachweislich weibliche Bewerberinnen, wie Amazons eingestelltes Recruiting-Tool zeigte. Und Gesichtserkennungssysteme in autonomen Fahrzeugen haben nach wie vor Schwierigkeiten, dunkelhäutige Personen korrekt zu identifizieren – mit potenziell tödlichen Folgen.
Neue Ansätze für faire KI
Die gute Nachricht: Das Bewusstsein für diese Probleme wächst. Große Tech-Konzerne haben mittlerweile eigene „AI Ethics“-Teams, auch wenn deren Wirksamkeit umstritten ist. Microsoft hat 2023 neue Guidelines für „Responsible AI“ eingeführt, Google arbeitet an „Fairness-Constraints“ für seine Algorithmen.
Bei den Sprachassistenten gibt es konkrete Verbesserungen: Seit 2022 lassen sich bei allen großen Anbietern geschlechtsneutrale Stimmen einstellen. Apples Siri fragt bei der Ersteinrichtung explizit nach der gewünschten Stimme, anstatt automatisch die weibliche Variante zu aktivieren. Amazons Alexa kann inzwischen auch mit der Stimme verstorbener Personen sprechen – eine Technologie, die zeigt, wie flexibel Stimmsynthese geworden ist.
Was sich ändern muss
Trotz dieser Fortschritte bleibt viel zu tun. Entwicklerteams sind nach wie vor überwiegend männlich und wenig divers – ein Grundproblem, das sich in den Produkten niederschlägt. Studien zeigen, dass diverse Teams ausgewogenere KI-Systeme entwickeln.
Auch regulatorisch tut sich etwas: Die EU hat 2024 den AI Act verabschiedet, der auch Diskriminierungsschutz bei KI-Anwendungen vorschreibt. In Deutschland arbeitet die Bundesregierung an einer KI-Strategie, die Fairness und Transparenz stärken soll.
Für Nutzer bedeutet das: Werdet bewusster im Umgang mit KI-Systemen. Hinterfragt Empfehlungen, nutzt verschiedene Stimm-Optionen und meldet problematische Antworten. Denn letztendlich lernen diese Systeme auch von unserem Feedback – im Guten wie im Schlechten.
Auch KI kann diskriminieren: Gespräch mit Prof. Tobias Matzner
Zuletzt aktualisiert am 04.03.2026
