Gesichtserkennung funktioniert immer besser. Wir haben deshalb ein Problem: Je mehr Fotos von uns im Netz landen, desto leichter sind wir zu finden – allein über unser Gesicht. Forscher aus Chicago haben eine interessante Software entwickelt, die KI-Systemen ein Schnippchen schlägt: Kleine Veränderungen am Gesicht – für uns Menschen unsichtbar – verwirren die Gesichtserkennungs-Algorithmen komplett.
Im Augenblick haben es Gesichtserkennungs-Systeme nicht besonders leicht: Wer eine Maske trägt, kann von diesen Systemen kaum zuverlässig erkannt werden.
Bei Gesichtern ohne Maske haben die Systeme heute aber schon eine erstaunlich hohe Trefferquote, können mühelos Millionen von Menschen unterscheiden. Darum sind Projekte wie Clearview AI oder Pimeyes auch eine ernsthafte Bedrohung für uns: Wenn Unternehmen – auch wenn sie damit gegen Datenschutz-Vorschriften oder Gesetze verstoßen – Milliarden Fotos mit Gesichtern aus dem Netz ziehen und dann für Suchdienste nutzen, sind viele von uns erkennbar. Es bedeutet das Ende der Anonymität.
Forscher haben eine virtuelle Maske entwickelt
Nur: Was tun, wenn Gesetzgeber und Behörden nicht entschlossen genug durchgreifen?
Forscher an der Universität Chicago haben eine Lösung entwickelt: einen Algorithmus namens „Fawkes“, der Fotoaufnahmen mit Gesichtern derart manipuliert, dass Gesichtserkennungs-Systeme gestört werden. Benannt nach Guy Fawkes, einem Widerstandskämpfer gegen die englische Krone. Wir kennen Menschen, die Guy-Fawkes-Masken auf Demos tragen, um ihre Identität zu schützen. Oder Hacker. Die „Anonymous“-Maske soll das Gesicht verdecken – und gleichzeitig signalisieren: Ich bin ein Freiheitskämpfer.
Die Chicagoer Software funktioniert wie eine virtuelle Guy-Fawkes-Maske. Wangenknochen, Augenlider, Kinn, Ohren – sie werden in ihrer Position minimal verändert. Die Veränderung ist so gering, dass wir Menschen nichts bemerken – aber Gesichtserkennungs-Software glaubt, einen anderen Menschen vor sich zu haben. Weil diese Erkennungssysteme sich auf ein paar hundert Punkte stürzen, die eine Art biometrischen Fingerabdruck ergeben.
„Fawkes“ täuscht die KI
Wer alle Fotos, die er auf Instagram, Youtube, Facebook und Co. von sich hochlädt, vorher per „Fawkes“-Algorithmus verändert, programmiert die Scanner um. Denn neuronale Netze „lernen“: Sie schauen sich Dutzende Bilder an, auf denen zum Beispiel angeblich „Jörg Schieb“ zu sehen sind. Wenn diese Bilder alle per „Fawkes“ verändert wurden, kann das KI-System auf einem Foto von mir, das nicht nachbearbeitet wurde, keinen Jörg Schieb erkennen.
Der „Fawkes“-Algorithmus würde aber nur dann gut funktionieren, wenn das überall gemacht würde, wo im Netz Fotos hochgeladen werden. Anbieter wie Instagram, Facebook, Youtube und Co. müssten die Funktion als Standard anbieten. Oder – noch besser – es kommen Plugins zum Einsatz, die das auf PC oder Smartphone automatisch machen.
Der Algorithmus der Forscher aus Chicago steht kostenlos für jedermann zur Verfügung.
[av_video src=’https://vimeo.com/451424481′ mobile_image=“ attachment=“ attachment_size=“ format=’16-9′ width=’16‘ height=’9′ conditional_play=“ av_uid=’av-6syjnpw‘]