Wenn KI diskriminiert: Es ist immer eine Frage des Trainings

von | 22.09.2023 | KI

KI trifft heute viele Entscheidungen: Ob die Tür aufgeht, welche Inhalte wir in der Timeline sehen, ob wir für das autonome Auto ein Passant darstellen oder nicht. Leider diskriminieren einige KI-Systeme. Das ist meistens nicht gewollt, sollte aber beseitigt werden.

Künstliche Intelligenz (KI) ist gerade überall. Wir nutzen Chatbots, amüsieren uns über KI-Filter in Social Media, lassen Texte von KI übersetzen oder sogar ganze Videos, staunen über Bilder, die von KI erzeugt wurden – und im Alltag gibt es auch immer öfter KI.

KI-Anwendungen entscheiden, was wir in der Timeline sehen, ob eine Tür aufgeht oder eben auch nicht – und selbst im Haushalt kommt KI öfter zum Einsatz. Doch was viele nicht wissen: KI kann auch diskriminieren – und macht sie auch, und das gar nicht mal so selten. Da werden Menschen mit bestimmter Hautfarbe nicht wahrgenommen, Frauen oder Männer benachteiligt – je nach Situation.

Roboter sind nur eine Visualisierung von KI

Roboter sind nur eine Visualisierung von KI

Auch KI kann diskriminieren: Beispiele

Wie KI funktioniert, ist für die meisten schwer vorstellbar – dabei ist sie heute allgegenwärtig.

Es ist wichtig, dass wir das festhalten: Auch KI kann diskriminierend sein, also einzelne Gruppen bevorzugen und benachteiligen. Ich habe ein paar konkrete Beispiele, damit Du dir das besser vorstellen kannst. Eins zeigt besonders deutlich, wie folgenreich das sein kann: autonome Fahrzeuge. Also Autos, die selbständig fahren und sich im Straßenverkehr bewegen.

In den USA fahren solche Fahrzeuge sogar schon im regulären Straßenverkehr herum. In so einem autonomen Fahrzeug steckt jede Menge KI, damit sich die Autos selbständig bewegen und auf schwierige Situationen eigenständig und verantwortungsvoll reagieren können. Eine Studie der Georgia University belegt aber, dass viele autonome Autos Schwierigkeiten haben, Menschen mit dunkler Hautfarbe auf der Straße zu erkennen. Die Fahrzeuge erkennen hellhäutige Menschen sehr gut, doch dunkelhäutige Passanten haben ein deutlich höheres Risiko, von autonomen Fahrzeugen angefahren zu werden.

Das ist natürlich extrem gefährlich – ist aber ein eindrucksvolles Beispiel für Diskriminierung in der KI. Mittlerweile ist es bekannt und die KI-Anwendungen autonomer Fahrzeuge wurden nachjustiert und verbessert.

Ein autonomes Auto: KI trifft folgenreiche Entscheidungen

Ein autonomes Auto: KI trifft folgenreiche Entscheidungen

KI kennt nur das, was man ihr zeigt

Wenn man so etwas hört, wundert man sich als Laie, ist erstaunt und empört. Stellt sich natürlich die Frage: Wie kommt es dazu?

Die Erklärung dafür ist vergleichsweise einfach: Jede Software macht immer nur das, was man ihr sagt. Das gilt auch und besonders für KI, obwohl sie ja selbstlernend ist. Natürlich hat niemand der KI in einem selbstfahrenden Auto gesagt: Bremse nur für hellhäutige Menschen. Aber am Ende ist – zugespitzt gesagt – genau das dabei herausgekommen.

Weil die KI unzureichend und falsch trainiert wurde. Der KI-Software wurde Tausende von Verkehrssituationen gezeigt – zum Lernen -, in Fotos und in Videos. Hier wurden aber offensichtlich vor allem Verkehrssituationen ausgewählt, in denen vor allem hellhäutige Menschen zu sehen sind, nur wenige mit dunkelhäutigen Menschen.

Die Folge: Die Software lernt, eher hellhäutige Menschen zu erkennen – die Bewegung von dunkelhäutigen Menschen kann die Software nicht so zuverlässig erkennen. Die Folge: Ein ernsthaftes Problem – und diskriminierendes Verhalten einer Software.

Diskriminierung lässt sich vermeiden

Das zeigt, wie folgenschwer unsensibles Training einer KI sein kann, ja sogar lebensbedrohlich.

Stellt sich die Frage: Wie lässt sich so etwas denn vermeiden?

Ich gehe mal nicht davon aus, dass in diesem Fall Absicht dahintersteckt. Aber auch das ist natürlich denkbar. Es muss daher genau kontrolliert werden, wer KI-Modelle entwickelt und auch trainiert, denn die Folgen können erheblich sein. In der Regel ist es eher Nachlässigkeit oder mangelnde Sensibilität, die zu solcherlei Diskriminierung führt.

Ein anderes Beispiel verdeutlicht das: Viele elektrische Seifenspender geben Flüssigseife aus, wenn eine hellhäutige Hand darunter gehalten wird. Bei dunkelhäutigen Händen reagieren sie nicht. Das ist natürlich keine KI, aber belegt: Wer Sensoren nur auf helle Haut programmiert, der ist extrem nachlässig bei der Programmierung gewesen – auch eine Form von Diskriminierung. Es gibt viele solcher Beispiele. Wenn die sich in komplexen Systemen wie autonome Autos verlieren, wird es natürlich gefährlich.

Einige KI-Modelle diskriminieren auch nach Geschlechtern

Einige KI-Modelle diskriminieren auch nach Geschlechtern

KI: Männer oder Frauen bevorzugen?

Eine andere Form der Diskriminierung ist ja, wenn Frauen oder Männer benachteiligt werden. Wo gibt es solche Fälle denn in KI?

Ein sehr konkretes, mittlerweile in Insiderkreisen fast schon berühmtes Beispiel: Amazon hat ein eigenes KI-System entwickelt, um eingehende Bewerbungen vorzusortieren. Mittlerweile ist bekannt: Dieses System hat lange Zeit, vor allem anfangs Bewerbungen von Frauen benachteiligt. Sie hatten schlechtere Karten, obwohl niemand dem System direkt gesagt hat, Männer seien zu bevorzugen.

Es hat sich herausgestellt, dass auch dieses KI-System trainiert und mit Akten aus der Vergangenheit „gefüttert“ wurde. Da sich mehr Männer als Frauen auf Jobs in der Tech-Branche bewerben und folglich auch mehr eingestellt werden, ist das System davon ausgegangen, das sei eine zu befolgende Regel und hat mehr Männer als Frauen als potenzielle Kandidaten für die Jobs ausgewählt. Auch hier also: Versteckte Diskriminierung dadurch, dass vorhandene Regeln und Praxis im Alltag in das System einprogrammiert wurden.

Wie sich Diskriminierung vermeiden lässt

Was kann man denn dagegen unternehmen?

Zum einen muss ein Problembewusstsein entstehen. KI-Systeme sind nicht die besseren Menschen. Sie übernehmen unser Regelwerk – bewusst oder unbewusst. KI-Modelle werden trainiert, nicht programmiert. Es ist von entscheidender Bedeutung, wie und womit sie trainiert werden. Um diskriminierende KI zu verhindern, können verschiedene Ansätze verfolgt werden.

Es braucht diversifizierte Daten: Die Entwickler müssen sicherstellen, dass die Trainingsdaten eine breite und repräsentative Stichprobe der Zielbevölkerung abdecken. Es müssen Fairness-Tools zum Einsatz kommen: Es gibt Tools und Frameworks. Die sind wie Baukasten für Entwickler. Damit lässt sich die Fairness von KI-Modellen überprüfen und verbessern.

Eine Art Nagelprobe in Sachen Diskriminierung also. Wichtig sind auch Transparenz und Überprüfbarkeit: Wer KI entwickelt, muss die Funktionsweise der KI-Systeme offenlegen und die Möglichkeit für Dritte einräumen, damit sich die Entscheidungen der KI unabhängig überprüfen lassen.

Last not least braucht es Ethik-Richtlinien: Das hat ja auch die von der Bundesregierung eingesetzte Ethik-Kommission vor einigen Monaten deutlich gesagt. Es braucht die Einrichtung von Ethik-Komitees und Richtlinien, um sicherzustellen, dass KI-Entwicklungen ethischen Standards entsprechen. Das muss natürlich auch überprüft werden können.

 

Schieb App