Künstliche Intelligenz (KI) wird immer häufiger missbräuchlich eingesetzt. Jüngstes Beispiel: DeepNude. Ein KI-System, das Frauen auf ganz normalen Fotoaufnahmen virtuell auszieht – und nackt präsentiert. Eine Varianter der Software ist frei zugänglich. Wer sich mit Software nicht so gut auskennt, kann einen Bot auf Telegram nutzen: Auch der präsentiert Nacktaufnahmen. Deep-Fake-Medien sind eine Gefahr für unsere Gesellschaft.
In den Siebzigern waren sie ein Partyknüller: Sogenannte „Röntgenbrillen“, die angeblich einen lüsternen Blick durch die Textilien hindurch gewähren. Das hat zwar nie wirklich funktioniert – aber wohl zumindest die Phantasie der Brillenträger beflügelt.
DeepNude wurde mit Tausenden Aufnahmen „trainiert“
Tatsächlich ist die Technik heute in der Lage, genau das zu ermöglichen, was mit der Röntgenbrille versprochen wurde: Es gibt eine Software, DeepNude genannt, die aus ganz gewöhnlichen Porträtaufnahmen im Handumdrehen Nacktbilder macht. Das Versprechen diesmal: DeepNude zeigt Menschen unbekleidet. Die Textilien werden durch realistisch aussehende nackte Haut ersetzt.
Das Ganze gab es kurzzeitig mal als App. Die wurde nach Protesten aber entfernt. Heute geht es anders: Auf Telegram können User Fotos an einen Bot schicken – und der macht innerhalb kürzester Zeit ein künstlich erzeugtes Nacktbild daraus und sendet es zurück. Kostenpunkt: etwas mehr als ein Euro.
DeepNude wurde mit Tausenden Aufnahmen „trainiert“
DeepNude ist ein KI-System, das mit Zehntausenden von Nacktaufnahmen „trainiert“ wurde. Auf diese Weise hat DeepNude die Anatomie unbekleideter weiblicher Körper „gelernt“. Entsprechend trainiert, retuschiert DeepNude nun in Aufnahmen von jungen Frauen blitzschnell die Bekleidung weg.
Für den Betrachter sieht es aus wie eine Nacktaufnahme. Wichtig zu wissen: DeepNude zeigt das Opfer solcher Deep-Fake-Attacken nicht wirklich nackt, sondern präsentiert lediglich eine Annahme, wie die Person aussehen könnte. Aber das ist schlimm genug.
Bei Männern versagt DeepNude völlig. Denn es wurde ausschließlich mit Nacktaufnahmen von Frauen gefüttert – wie ein nackter Mann aussieht, „weiß“ DeepNude nicht.
Deep-Fakes: Es wird immer einfacher – und die Qualität immer besser
Fatale gesellschaftliche Folgen
Die möglichen Folgen sind fatal. Es ist abzusehen: Schon bald kursieren in Klassen-Chats vermeintliche Nacktaufnahmen von Mädchen aus der Klasse. Oder von Kolleginnen. Promis müssen sowieso damit leben, dass Irre ihre Köpfe auf Pornos „photoshoppen“. Aber mit KI-Systemen wie DeepNude kann es jede(r) – und das blitzschnell.
Es hat schon Fälle gegeben, da wurden Frauen mit solchen Fake-Aufnahmen erpresst.
Wir als Gesellschaft werden mit immer mehr Fake-Medien geflutet: Fake-Fotos, Fake-Videos, Fake-Audios. Es gibt immer mehr Fake-Medien – und dadurch immer mehr Verunsicherung. Echt oder unecht, was wir da sehen oder hören? So etwas kann nicht nur Existenzen vernichten, sondern auch Gerichtsprozesse beeinflussen, Skandale verursachen oder Staatskrisen erzeugen.