wmg-logo

Sie liegen dieses Jahr ziemlich häufig unterm Tannenbaum. Diese mehr oder weniger kleinen smarten Boxen, mit denen man sprechen kann. „Alexa, sag mir, was Du über mich weißt?“ Darauf bekommt man keine Antwort. Aber der Mini-Lautsprecher von Amazon erfährt auf Dauer so einiges über die Familie, in der er wohnt. Jetzt hat es aber eine riesige Datenpanne gegeben. Amazon hat Gesprächsfetzen von Alexa-Nutzern an Fremde übergeben. Was ist da los? Ist Alexa indiskret?

Ein Kunde aus Deutschland hat von seinem Recht Gebrauch gemacht, das es seit der DSGVO gibt, und Amazon aufgefordert, ihm genau mitzuteilen, welche Daten das Unternehmen über ihn gespeichert hat. Kaum zwei Monate später ist ein umfangreiches Dossier eingetroffen, mit vielen Infos über Einkäufe und Produktsuchen.

Aber auch über Alexa, was der Kunde also Alexa gefragt hat. Das Problem: Dieser Kunde hat gar kein Alexa. Das hat ihn natürlich besonders neugierig gemacht. 1700 Audiodaten wurden geliefert. Er hat reingehört – und Fremde gehört. Fremde, die mit Alexa gesprochen haben. Aber auch Gesprächsfetzen, die eindeutig zufällig mitgeschnitten wurden. Davon hat der Fachverlag Heise erfahren und das veröffentlicht.

Mitschnitte bei Alexa

Dass ein Fremder die Mitschnitte bekommen hat, war ein Versehen. Das ist der Anfrage geschuldet, da haben Mitarbeiter bei Amazon Mist gebaut. Aber dass die Gespräche aufgezeichnet werden, ist üblich – das wissen die meisten nur nicht. Es ist so: Wenn ich mit Echo/Alexa spreche, geht das an Server von Amazon und wirt dort analysiert.

Nicht im Gerät. Das ist bei allen Assistenten so, auch bei Siri, Cortana, Google etc. Amazon speichert die Anweisungen oder Fragen aber dauerhaft! Man kann sie sich selbst auch anhören. Dazu muss man nur ins Profil gehen. Da sieht man genau: Wann habe ich mit welchem Gerät wo welche Fragen gestellt – und sich die Audios anhören.

Vertrauliche Gespräche aufgezeichnet

Aber offensichtlich sind nicht nur Anfragen wie „Wir wird das Wetter morgen“ dabei, sondern auch vertrauliche Gespräche. Wie kommt das?
Es ist ja so: Normalerweise aktiviert man Alexa, indem man „Alexa“ sagt. Auch das ist bei allen anderen Assistenten genauso.

Was danach kommt, ist relevant – und wird an die Server zur Analyse geschickt. Nun kann es aber passieren, dass sich Alexa verhört. Wenn in einem Gespräch von einer „Alex“ die Rede ist, geht das Mikrofon auf. Im Radio nuschelt einer „alles“, und das Mikrofon geht auf.

Die Maschine glaubt also, das Schlüsselwort sei gefallen – und beginnt mit der Aufzeichnung, überträgt alles auf die Server, das wird dort gespeichert. Das passiert häufiger als man glaubt. Davon kann sich jeder selbst überzeugen, indem er/sie mal in sein Amazon-Profil schaut oder besser: rein hört.

Wann hören die Geräte mit?

Nun, das Mikro selbst hört die ganze Zeit zu, wenn nicht gerade manuell auf Stumm geschaltet. Denn es könnte ja jederzeit sein, dass ich „Alexa“ oder „Google“ oder „Siri“ oder „Cortana“ sage. Zu den Servern geschickt wird das Gesagte aber normalerweise aber nur, wenn das Schlüsselwort vorher fällt. Aber kann man sich darauf verlassen? Theoretisch lassen sich die Geräte hacken und manipulieren, dann lässt jederzeit alles mitschneiden.

Im schlimmsten Falle schon, wenn sie manipuliert werden oder einen Defekt aufweisen. Das gilt übrigens sogar für sprachgesteuerte Fernseher. Deshalb verzichten viele bewusst darauf, sich solche Technologie ins Haus zu holen. Im aktuellen Fall war das aber nicht das Problem. Hier haben wir das Problem, das aufgezeichnete Daten in fremde Hände geraten.

Wie häufig passiert das?

Das soll nicht passieren. Ist aber passiert. Wer will sicherstellen, dass die eigenen Aufzeichnungen nicht von Amazon-Mitarbeitern mitgehört oder weitergegeben werden? Dass ein Datenleck entsteht, und jeder kann reinhören?

Der Fall zeigt: Sowas kann passieren. Und das sollte jeder wissen. Die Kollegen von Heise haben mit Hilfe der Daten, also was wurde gesagt, welche Namen sind gefallen, nach welchen Wetterinfos wurde gefragt etc., sogar die betroffene Familie ermitteln können. Sie haben sie informiert. Das zeigt, dass es möglich ist, im Fall eines solchen Datenlecks Rückschlüsse zu ziehen.

 

2 Kommentare

Trackbacks & Pingbacks

  1. […] Es hat in den letzten Tagen einige Diskussionen darüber gegeben, dass sich “echte Menschen” Audioschnipsel aus digitalen Assistenten anhören. Apple, Amazon, Google und Microsoft beschäftigen für ihre jeweiligen Assistenzsysteme (zumeist externe) Kräfte, die sich stichprobenartig anhören, was wir den Assistenten so anvertrauen. “Alexa: Wie wird das Wetter?” “Hey Siri, was läuft hier im Kino?” Aber durchaus auch, was die Assistenten versehentlich so mitschneiden – weil sie davon ausgegangen sind, das jeweilige Schlüsselwort wäre gefallen. Immer wieder werden Gesprächsfetzen irrtümlich aufgezeichnet. […]

  2. […] als Audio-Dateien auf Amazon-Servern gespeichert und später – etwa durch Pannen – von Dritten abgehört werden können. Ein hoher Preis dafür, dass Alexa die Wettervorhersage vorlesen oder auf Zuruf Musik abspielen […]

Kommentare sind deaktiviert.