Apple will künftig Geräte aktiv nach inkriminierten Fotos durchsuchen

Apple legt normalerweise großen Wert auf Datenschutz und Privatsphäre. Deshalb überrascht es, was Apple vor hat: In künftigen Betriebssystem-Versionen sollen die Geräte der User nach Fotos durchsucht werden, die Bilder sexualisierter Gewalt zeigen. Die Motivation ist verständlich – die Idee trotzdem schlecht.

Eigentlich gehört Apple in Sachen Datenschutz und Privatsphäre zu den Guten. Der Apfel-Konzern schränkt die Möglichkeiten von Trackern ein – und macht sie besser sichtbar. Das sorgt für deutlich mehr  Privatsphäre. Auch weigert sich Apple immer wieder, verschlüsselte iPhones zu knacken und gibt sich auch viel Mühe, die iCloud sicher zu machen. Deshalb kam die jüngste Ankündigung etwas überraschend – auch für mich.

Apple verwendet bewährte Mechanismen zum Dateanabgleich

Apple verwendet bewährte Mechanismen zum Dateanabgleich

Apple lässt auf den Geräten selbst suchen

Denn Apple hat angekündigt, auf iPhones, iPads und PCs aktiv nach CSAM-Material zu suchen (Child Sexual Abuse Material). Die genaue Vorgehensweise wird in diesem White Paper beschrieben: Danach schaut sich der Konzern nicht etwa alle in der iCloud gespeicherten Fotos und Videos an, sondern wendet eine – wenn man so will – “elegantere” Methode an.

Apples Betriebssysteme werden wohl ab Herbst, wenn die neuen Betriebssystem-Versionen herauskommen – zunächst aber nur in den USA – auf den Geräten(!) nachsehen, ob dort bereits bekanntes und in entsprechenden Datenbanken gespeichertes Material vorhanden ist. Etwa Fotos, die sexualisierte Gewalt an Kindern zeigen. Schon im Gerät! Das ist das Besondere.

Inkriminierte Fotos vor dem Upload gekennzeichnet

Werden bei diesem Check auffällige Fotos entdeckt, erzeugt das Betriebssystem ein besonderes Zertifikat. Erst nach dem Upload in die iCloud schauen sich Mitarbeiter das Material möglicherweise an – sofern mehrere solche Aufnahmen entdeckt wurden (wie viele genau, verrät Apple nicht).

Technisch gesehen ist das eine elegante Methode, da die Vorabkontrolle im Smartphone, iPad oder PC erfolgt – und nicht etwa ohne begründeten Verdacht alle Fotos in der Cloud durchforstet werden.

Von einer “Totalüberwachung durch die Hintertür” kann meiner Ansicht nach keine Rede sein. Schon allein deswegen, weil es keine Totalüberwachung gibt.

Es weren "nur" bereits bekannte Bilder entdeckt

Es weren “nur” bereits bekannte Bilder entdeckt

Missbrauch nicht nur möglich, sondern fast sicher

Allerdings hinterlässt es einen nicht nur merkwürdigen Eindruck, wenn ein US-Konzern jedes einzelne Gerät aktiv – wenn auch softwaregesteuert – untersucht. Zwar für eine gute Sache – aber dennoch. Hier öffnet Apple die Büchse der Pandora: Es besteht die begründete Sorge, dass solche Technologien missbraucht werden.

Durch Hacker: Sie könnten arglosen Usern inkriminiertes Material unterjubeln (und so Alarm auslösen). Durch Regierungen, die Apple auffordern könnten, ihre Scan-Technologie für andere Zwecke einzusetzen. Und durch die NSA, die sowieso für alles zu haben ist, was dabei hilft, die Kommunikation zu überwachen.

Auch wenn Apple eine vergleichsweise elegante technische Lösung wählt und zweifellos einen guten Zweck verfolgen möchte: Die Risiken sind einfach viel zu hoch. Zwar werden nicht alle Befürchtungen eintreten, aber einige gewiss – und das kann niemanden gefallen. Es ist nie eine gute Idee, ein Problem lösen zu wollen – und Dutzende neue zu schaffen.

Microsoft beteiligt sich schon lange an der internationalen Initiative