Kommt eine Kennzeichnungspflicht für Fotos mit Beauty-Filter?

von | 15.07.2022 | Tipps

Vor allem auf Instagram gibt es viele Selfies und Fotos zu sehen, die mit Filtern bearbeitet und gepimpt wurden. Das verändert das Körperbild – auf schädliche Weise. Es gibt jetzt Forderungen, Fotos zu kennzeichnen, die mit Filtern nachbearbeitet wurden. Was könnte das bringen?

Heute schon mal bei Instagram vorbeigeschaut – oder in einer anderen Social Media Plattform Ihres Vertrauens, auf der Selfies und Fotos verteilt werden? Falls ja, sind Sie mit an Sicherheit grenzender Wahrscheinlichkeit bereits auf Fotos gestoßen, die mit Filtern nachbearbeitet wurden.

Aufgehübscht, nachbearbeitet, aufgepimpt: Das ist heute Standard, wenn Fotos gepostet werden. Ganz besonders bei Influencerinnen und solchen, die es sein oder werden wollen. Doch solche aufgepimpten Bilder haben Folgen. Viele junge Menschen, besonders Mädchen und junge Frauen sind unzufrieden mit ihrem Körper.

Darum überlegt die Politik, etwas zu unternehmen: eine Kennzeichnungspflicht für manipulierte Aufnahmen in Werbung und Social Media. Was ist da geplant und würde das wirklich etwas bringen?

Einige Beauty-Apps geben biometrische Daten weiter

Einige Beauty-Apps geben biometrische Daten weiter

Politik plant strengere Regeln

Vor einigen Tagen haben sich die Ministerinnen und Minister für Gleichstellung getroffen – und über die Problematik gesprochen. Sie denken offensichtlich über eine Kennzeichnungspflicht für geschönte Bilder in sozialen Netzwerken bei uns in Deutschland nach. Was steckt dahinter?

Die Politik argumentiert: „Die bei Social Media und in der Werbung eingesetzten Beauty-Filter prägen nachweislich ein unrealistisches Schönheitsideal bei Mädchen und Frauen“. Das Problem ist ja: Man kann heute nicht mehr erkennen, welche Aufnahmen echt sind und welche nachbearbeitet. Es gibt heute Millionen Beauty-Filter, die machen Gesichter schmaler, die Nase kleiner, die Lippen roter, die Haut glatter…

Sowas gibt’s im Profi-Bereich natürlich schon lange, Photoshop hat’s vorgemacht. Aber heute sind solche Filter allgegenwärtig, und jede(r) setzt sie sein. Das verändert natürlich die Wahrnehmung. Vor allem dann, wenn nicht nur die Models in Profiaufnahmen „wie gemalt“ aussehen, sondern auch die sich als „Best Buddy von nebenan“ gebende Influencerin, die trotzdem viel besser aussieht als man selbst.

Wir wissen aus Studien, dass junge Frauen und Mädchen unter diesem Druck leiden. Jede dritte Frau zwischen 11 und 21 Jahren würde kein unretuschiertes Bild von sich hochladen. Die Whistleblowerin Frances Haugen hatte vor einigen Monaten ja auch verraten, dass Facebook von diesem Druck weiß, aber nichts unternimmt.

Die Riege der Gleichstellungsminister hat deshalb mit großer Mehrheit die Bundesregierung aufgefordert, rechtliche Regelungen zur Kennzeichnungspflicht von retuschierten Werbebildern und den Einsatz von Beauty-Filtern einzuführen.

Facetune

Wasserzeichen und Kennzeichnungen

Aber wie könnte eine solche Kennzeichnungspflicht denn aussehen? Und wer müsste sie vornehmen?

Wir haben ja gerade schon gehört, wie es in Norwegen gemacht wird. Das ist sicher eine Möglichkeit. Eine solche Kennzeichnung könnte in den Fotos als Wasserzeichen integriert werden („Dieses Foto wurde retuschiert!“), oder es erscheint ein Hinweis in den Social Media Diensten, neben dem Post.

In Frankreich gibt es so etwas auch schon länger. Erlaubt sind dort in Werbung und Social Media nur noch gesamtheitliche Bildbearbeitungen wie Aufhellung, Verdunklung oder Schärfung – aber nicht die Optimierung einzelner Bildteile. Wenn das gemacht wird, ist eine Kennzeichnung erforderlich, etwa wenn Haut oder Körperform verändert wurden, also wenn Filter zum Einsatz kommen, die das Körperbild wirklich maßgeblich verändern.

filter,beauty

Politik plant strengere Regeln

Jetzt ist es ja eine Sache, eine Kennzeichnungspflicht vorzuschreiben. Macht aber vielleicht nicht jeder. Wie gut ließe sich das denn überprüfen, ob alles gekennzeichnet wird, was gekennzeichnet werden müsste?

Das halte ich für einen vergleichsweise schwierigen Punkt. Was wurde durch Licht, Maske oder ein bestimmtes Objektiv erreicht – was durch einen Filter? Darüber würde es vermutlich häufiger Streit geben. Zweifellos kann man Algorithmen entwickeln, die den Einsatz von Filtern erkennen – oder die Wahrscheinlichkeit, nach der solche Filter eingesetzt wurden berechnen.

In Norwegen macht man es dann ja so, dass die Behörde im Zweifel die Originalaufnahmen untersucht. Das ist natürlich ein riesiger Aufwand. Aber es soll ja auch nicht darum gehen, bei jedem privaten Post solche Untersuchungen zu machen, sondern nur bei relevanten Posts.

Die Rede ist von mindestens 10.000 Followern in etwa. Das würde auch bedeuten, dass Privatmenschen sich weiter keine Gedanken machen müssten. Nur dann, wenn man viele Follower hat und/oder mit seinen Posts Geld verdient, im Grunde also Werbung macht, ist ein strengerer Blick und ggf. ein Kennzeichnung notwendig.

Ob allerdings die Menschen, die die Posts konsumieren, diese Hinweise dann überhaupt noch wahrnehmen, wenn sie überall stehen, ist eine andere Frage. Influencer müssen bezahlte Postings ja auch als „Werbung“ kennzeichnen zB. Niemand nimmt das noch ernsthaft wahr.

Eine gute Idee – oder überflüssig?

Ich bin nicht eindeutig dafür, weil ich einen Abnutzungseffekt befürchte. Auf der anderen Seite ist gar nichts zu tun, wie bislang, ganz sicher der falsche Weg. Denn die Kunstwelt der Sozialen Medien ist zweifellos ein riesiges Problem, vor allem bei der Körperwahrnehmung.

Da hilft es möglicherweise schon, wenn wenigstens dran steht, dass ein Bild verändert wurde. Inwiefern das in einem Metaverse eine Rolle spielen kann, also einer komplett künstlichen virtuellen Welt, wie sie Mark Zuckerberg vorschwebt, ist noch eine ganz andere Frage.

Das berühmte Obama-Video ist ein Deep Fake: Täuschend echt - aber Fake

Das berühmte Obama-Video ist ein Deep Fake: Täuschend echt – aber Fake

Da haben sich solche Hinweise erledigt, da ja alles künstlich ist. Es gibt aber noch einen weiteren Aspekt, den ich wichtig finde: Deep Fakes – also komplett künstlich erzeugte Bilder, mit KI – sind auch ein zunehmendes Problem.

Dafür zu sensibilisieren, dass Bilder künstlich bearbeitet, sogar künstlich erzeugt werden können, ist richtig und wichtig. Eine Kennzeichnungspflicht für Deep-Fakes wäre sogar wünschenswert. Und natürlich auch, dann Werkzeuge an der Hand zu haben, so etwas schnell und zuverlässig zu erkennen. Da wir uns nicht auf Facebook und Co. verlassen können, ist es gut, sich Gedanken zu machen und Maßnahmen zu ergreifen.