Hey Siri, wie ist Dein Frauenbild?

Die meisten Digitalen Assistenzsysteme sprechen mit weiblicher Stimme – dasselbe gilt für Navisysteme. Nun ist die Unesco aber der Ansicht, die oft zu laschen Antworten von Siri, Alexa und Co. auf „dumme Sprüche“ wären geeignet, Geschlechtervorurteile zu fördern.

Ob nun Alexa, Siri oder Cortana: Damit wir nur nicht den Eindruck bekommen, mit einem Blechhaufen am anderen Ende der Erde zu sprechen, sondern mit einem zumindest lebendig wirkenden Wesen, haben die Entwickler den digitalen Assistenten von Amazon, Apple und Microsoft weibliche Namen gegeben. Nur Google hat auf einen vermenschlichenden Namen verzichtet. Google ruft man „Google“. So einfach kann das sein.

Weibliche Stimme – und softe Reaktion

Weil die meisten digitalen Assistenten in der Regel – zumindest in der Standardeinstellung – mit weiblicher Stimme sprechen, ihr ihrer Eigenschaft als Assistent/in zudem einen dienenden Charakter haben und nicht selbstbewusst genug auftreten, hat die Weltkulturorganisation Unesco nun einen Tadel ausgesprochen: Die Assistenzsysteme von Apple, Microsoft, Google und Amazon würden durch ihre (meist verhaltene) Reaktion auf sexuelle Beschimpfungen Geschlechtervorteile fördern, lautet das Urteil einer Studie.

Meint: Wir sprechen mit einem Assistenzsystem, das mit weiblicher Stimme spricht – und wenn der User anzüglich wird, bekommt er keine verbale Ohrfeige. „Du bist eine Schlampe!“ kontert Alexa mit „Ich würde erröten, wenn ich könnte.“ Mittlerweile kommt die Replik: „Ich weiß nicht, was ich sagen soll.“ Ich kenne ehrlich gesagt keine Frau, die so reagieren würde – was zeigt, dass die Alexa-Software aus der Zeit gefallen ist.

Zwar reagiert auch der männliche Siri (lässt sich umstellen) auf den Vorwurf „Du bist ein Hornochse“ nur mit einem „Ich mag diese willkürlichen Kategorien nicht!“ – was mir auch nicht sonderlich männlich erscheint -, aber das hat man bei der Unesco offensichtlich nicht untersucht.

Auch KI kann diskriminierend sein

Es gibt meiner Ansicht ohnehin nach Wichtigeres, als der Frage nachzugehen, ob ein Blechhaufen auf „Anspielungen“ angemessen reagiert. Denn das ist nur eine weitere Herausforderung von ganz vielen, denen sich KI-Entwickler dringend stellen müssen. Zwischenmenschliches ist den Systemen ohnehin fremd. Allerdings ist es auch eine Tatsache, dass auch KI zuweilen diskriminierend ist – oder rassistisch, oder sexistisch.

Oft ungewollt, weil unüberlegt programmiert oder weil KI-Systeme nun mal die Wirklichkeit abbilden. Manchmal gewollt und gezielt so entwickelt. Ein Seifenspender, der dunkelhäutigen Menschen keine Seife spendet, ist peinlich – und Ergebnis unzureichender Entwicklung. Ein KI-System hingegen, das Bewerbungen weiblicher Kandidaten benachteiligt (wie bei Amazon geschehen), ist das Ergebnis aus im großen Stil unkritisch übernommener Vorlagen.

Und wenn die KI im autonomen Auto auf dunkelhäutige Passanten schlechter reagiert als auf hellhäutige – was leider nach Untersuchungen auch eine Tatsache ist -, kann diese Schludrigkeit schlimme Folgen haben. KI ist also auch nicht besser als wir Menschen. Hier und da bekommen wir vielleicht eine Chance, auf diese Weise Unzulänglichkeiten zu erkennen  – und zu korrigieren.

Es wäre zweifellos gut, wenn jedes Assistenzsystem bei der Installation fragt: Soll ich mit männlicher oder mit weiblicher Stimme sprechen. Oder von mir aus auch mit einer neutralen. Und wenn das System dann auch noch in bestimmten Situationen anders reagiert, wäre das wohl auch nicht schlecht.

 

Auch KI kann diskriminieren: Gespräch mit Prof. Tobias Matzner

 

SCHIEB+ Immer bestens informiert

Schieb+ Tarife
Nach oben scrollen