Vor wenigen Jahren war es noch das US-Unternehmen Clearview AI, das mit seiner Gesichtserkennungs-Datenbank für Aufsehen sorgte. Heute ist die Bedrohung für unsere Privatsphäre noch größer geworden: PimEyes aus Polen hat seine Datenbank auf über 3 Milliarden Fotos ausgebaut – und jeder kann sie nutzen.
Warum lächeln wir eigentlich noch, wenn wir fotografiert werden? Die Chance, dass eine Aufnahme mit uns im Bild irgendwo in den diversen Sozialen Netzwerken auftaucht und zur Bereicherung derselben beiträgt, ist inzwischen praktisch bei 100 Prozent.
Das Risiko für Missbrauch ist durch KI-gestützte Gesichtserkennung exponentiell gestiegen, wie der aktuelle Fall PimEyes aus Polen zeigt: Wer das Angebot von PimEyes aufsucht, kann ein Porträtfoto hochladen und nach anderen Fotos dieser Person suchen. Sekunden später erscheinen die Treffer – dank fortschrittlicher AI-Algorithmen präziser denn je.
PimEyes geht weit über Google hinaus
Das geht weit über die Bilder-Suchfunktion von Google hinaus. Denn PimEyes „saugt“ im großen Stil Fotos aus allen nur denkbaren Quellen, vor allem aus dem Web und Plattformen wie Facebook, Instagram, TikTok, YouTube und sogar aus Dating-Apps wie Tinder und Bumble.
Die KI-Technologie dahinter nutzt moderne Deep Learning-Verfahren, die selbst bei veränderten Frisuren, Makeup oder Gesichtsausdrücken zuverlässig Treffer liefern. Was früher nur Geheimdiensten vorbehalten war, ist heute für 29,99 Euro im Monat verfügbar.
(Noch) erscheinen nicht Name und Wohnort auf dem Bildschirm, sondern es werden „nur“ Quellen präsentiert, die ein Bild mit der Person zeigen. Aber das reicht meist schon, um innerhalb weniger Sekunden herauszufinden, um wen es sich handelt.
Anonymität wird systematisch abgeschafft
Die Datenschutzexperten von netzpolitik.org haben sich das genau angeschaut – und kommen zum Schluss: Die polnische Firma schafft gerade unsere Anonymität ab. Inzwischen sollen über 3 Milliarden Aufnahmen in den Datenbanken gespeichert sein – Tendenz täglich steigend.
Ein ähnlicher Datenskandal wie bei Clearview AI. Da hat ein US-Unternehmen das Netz abgegrast, eine Gesichtserkennung darübergelegt und den Service an Polizei und Geheimdienste verkauft. Der Unterschied: PimEyes verkauft direkt an Privatpersonen.
Besonders brisant: Die Technologie wird immer präziser. Moderne AI-Systeme können inzwischen auch Gesichter erkennen, die nur teilweise sichtbar sind, durch Masken verdeckt oder aus ungünstigen Winkeln fotografiert wurden.
DSGVO-Verstoß auf höchstem Niveau
Doch PimEyes sitzt in Polen. In der EU! Unvorstellbar, dass es mit der DSGVO vereinbar ist, Milliarden von Fotos aus dem Netz zu ziehen, miteinander zu verbinden und eine KI-gestützte Gesichtserkennung darüber laufen zu lassen – für die Allgemeinheit!
Trotz mehrerer Beschwerden bei Datenschutzbehörden operiert das Unternehmen weiter. Anders als Clearview AI bietet PimEyes diesen Service nämlich jedem an. Der siebte Himmel für Stalker: Foto machen – und PimEyes verrät, wer er oder sie ist. Herzlichen Glückwunsch!
Die polnischen Datenschutzbehörden haben zwar 2023 ein Verfahren eingeleitet, doch PimEyes operiert weiterhin – nur mit geänderten Nutzungsbedingungen.
Plattformen schauen tatenlos zu
Laut Recherchen von netzpolitik.org hat PimEyes nachjustiert, einige Formulierungen und auch Verfahrensweisen geändert. So kann man derzeit – zumindest offiziell – nur noch ein Webcam-Bild hochladen. Angeblich, damit man herausfindet, auf welchen Webseiten und Fotos man selbst zu sehen ist und auftaucht. Nur: Das ist kein Geschäftsmodell – das kauft dem Unternehmen doch niemand ab, dass es darum geht.
Markus Beckedahl von netzpolitik.org fragt völlig zu Recht: Wieso ist es eigentlich möglich, dass Facebook, Instagram, TikTok und Co. Milliarden von Fotos „herausgeben“? Warum lassen sie es zu, dass einzelne Unternehmen zig Millionen Fotos „ziehen“, also laden?
Die Antwort ist ernüchternd: Die großen Tech-Plattformen haben durchaus die technischen Mittel, solche massenhaften Downloads zu erkennen und zu unterbinden. Rate-Limiting, Bot-Erkennung und API-Beschränkungen sind längst Standard. Sie werden nur nicht konsequent eingesetzt.
Was können wir tun?
PimEyes bietet zwar ein „Opt-Out“ an – man kann verlangen, dass die eigenen Bilder aus der Datenbank entfernt werden. Doch das ist ein Tropfen auf den heißen Stein. Täglich kommen Millionen neue Fotos hinzu.
Effektiver ist es, die Quellen zu kontrollieren: Datenschutzeinstellungen in sozialen Netzwerken auf „privat“ setzen, Gesichtserkennungsfeatures deaktivieren und bewusster mit Fotos umgehen. Manche nutzen auch spezielle Makeup oder Kleidung, die KI-Systeme verwirren sollen.
Verantwortung liegt bei Politik und Plattformen
Hier liegt ganz klar auch eine Verantwortung bei den Plattformen. Auch sollte es möglich sein, dass Fotos sich automatisch auflösen nach einer Weile. Und dass sie ausschließlich im jeweiligen Netzwerk angeschaut werden dürfen.
Die EU arbeitet bereits am AI Act, der auch Gesichtserkennungssysteme regulieren soll. Doch bis dahin operieren Unternehmen wie PimEyes in einer Grauzone. Einzelne EU-Länder wie Frankreich haben bereits schärfere Gesetze erlassen.
Aber ganz klar muss auch die Politik schneller reagieren: Niemand sollte im großen Stil biometrische Daten absaugen dürfen. Unter gar keinen Umständen. Die Technologie ist da – jetzt brauchen wir endlich den Rechtsrahmen.
[av_video src=’https://vimeo.com/386471740′ mobile_image=“ attachment=“ attachment_size=“ format=’16-9′ width=’16‘ height=’9′ conditional_play=“ av_uid=’av-5fqpn1p‘]
Zuletzt aktualisiert am 28.02.2026