Mögliche Diskriminierung in Algorithmen

von | 13.07.2020 | Digital

Seit dem Tod von George Floyd gibt es eine verstärkte Debatte für Diskriminierung und Rassismus. Es werden offensichtliche Fälle von Diskriminierung angesprochen und kritisiert, ebenso die Rassismus-Frage gestellt. Aber das nicht nur da, wo es jedem einleuchtet, sondern auch in Bereichen, die vielleicht überraschen. Zum Beispiel in der Digitalisierung. Auch da gibt es Diskriminierung – ja auch Rassismus. Denn auch Algorithmen sind nicht immer objektiv und gerecht.

Computer können super schnell rechnen? Stimmt. Computer haben keine Gefühle? Stimmt auch. Computer irren sich nicht? Doch, durchaus. Es gibt Fehler. Sicherheitslecks. Und objektiv sind Computer schon mal gar nicht. Denn Algorithmen tun das, wozu sie programmiert wurden. Und können daher durchaus auch diskriminieren.

Wir programmieren, Computer führen aus

Algorithmen, also Computerprogramme, sind nur so neutral, wie es die Programmierer vorgesehen haben.

Wer nur seine eigene Lebenswirklichkeit sieht und an den Computer weitergibt, will nicht zwingend diskriminieren oder hat sogar rassistische Motive, sondern denkt womöglich nicht weit genug – und erzeugt so einen Algorithmus, der diskriminiert.

Zeigt man einer Künstlichen Intelligenz zum Beispiel ausschließlich Fotos von schwarzen Katzen und weißen Hunden, dann „denkt“ der Algorithmus: Alle Katzen sind schwarz. Alle Hunde weiß. Ein schwarzer Hund wird von der KI dann womöglich für eine Katze gehalten, wegen seiner Fellbarbe.

Fatale Konsequenzen möglich

Solche unzureichenden Trainings können fatal sein. So wurde in selbstfahrenden Autos festgestellt, dass die auf hellhäutige Passanten tadellos reagierten. Dunkelhäutige Passanten aber wurden deutlich schlechter erkannt. Was ein erhöhtes Unfallrisiko mit sich bringt. Grund: Die Systeme wurden vor allem mit hellhäutigen Menschen trainiert.

Die Informatikerin Joy Buolamwini zeigt auf einer öffentlichen Veranstaltung, dass ihr Gesicht bei diversen Projekten, die sich mit Gesichtserkennung beschäftigen, gar nicht oder nicht richtig erkannt wird. Sie muss sich eine weiße Maske aufziehen, damit es funktioniert. Die Folge eines sogenannten „Bias“. Einer falschen Vorgehensweise.

Leider kein Einzelfall. Aber ist es diskriminierend oder sogar rassistisch, wenn Systeme derart schlecht programmiert sind – oder eher Nachlässigkeit?

Auch ungewollte Diskriminierung ist diskriminierend

Die Spanierin Lorena Jaume-Palasi, die sowohl die spanische Regierung wie die EU in Sachen Künstliche Intelligenz berät, sagt: Diskriminierung und Rassismus hat nichts mit Vorsatz oder Willen zu tun.

Ko Emotionen

Lorena: „Wenn wir zum Beispiel Kiosken an Flughäfen bauen, die Weiße sehr gut erkennen, biometrisch erkennen und damit durchgehen lassen, aber Leute mit asiatischen Zügen schlechter erkennen können und diese damit länger in der Schlange stehen müssen, dann haben wir im Grund ein Speed-Boarding für Weiße kreiert. Und natürlich war das keine Absicht. Aber das ist der Effekt. Und selbstverständlich ist dieser Effekt rassistisch – und darauf kommt es an.“

So eine ungewollte Diskriminierung kann zu ganz konkreten Nachteilen führen: Bestimmte Personengruppen bekommen keinen Kredit, werden öfter von der Polizei kontrolliert oder angehalten, das ein oder andere Geschlecht hat schlechtere Chancen bei Bewerbungen…

Das fällt nur auf, wenn wir genauer hinschauen. Die Algorithmen auf mögliche Diskriminierung abklopfen.

Lösungsansätze: Buntere Teams

Es gibt viele Ansätze bzw. viele Sachen, die man machen kann. Man sollte die Teams diverser gestalten. Leute aus verschiedenen aus verschiedener Herkunft, aus verschiedenen Religionen und auch verschiedene Geschlechtern zusammenstellen. Und damit ist die Wahrscheinlichkeit, dass man etwas übersieht, deutlich geringer.

Also: Teams von Programmierern und KI-Systemen möglichst divers besetzen. Dann fallen Denkfehler schneller auf.

Selbst Experten sehen es Algorithmen nicht an, nach welchen Kriterien sie entscheiden – denn vor allem Künstliche Intelligenz besteht nicht aus Programmcode, sondern aus Erfahrungen. Es muss also genau geprüft werden: Was wurde da eigentlich trainiert – und deckt das alle ab, ist das fair?

Höhere Sensibilität nötig

Nur selten werden Algorithmen oder Systeme ganz bewusst so programmiert, dass sie diskriminieren oder rassistisch sind. Algorithmen lernen von uns.

Wenn wir uns die Algorithmen oder die KI-Systeme näher anschauen und Probleme entdecken, gibt es dafür immer einen Grund in der Realität. In unserer Welt.

Algorithmen können uns also durchaus auch helfen, weil sie wie ein Brennglas funktionieren, Missstände zu entdecken. Und sie dann zu beseitigen. In der Gesellschaft. In der Art, wie wir leben.

 

Schieb App