Forscher haben eine ungewöhnliche Methode entdeckt, mit der sich handelsübliche Assistenzsysteme wie Alexa, Google Home oder Siri austricksen lassen: Aus sicherem Abstand kann mit einem Laserstrahl eine Anordnung zum Assistenten übertragen werden – ganz so, als stünde man daneben. Ein ernsthaftes Sicherheitsrisiko, vor allem dann, wenn der Assistent im Smartphone verankert ist

Was braucht man, um einen modernen Sprachassistenten wie Google Home, Amazon Alexa oder Apples Siri auszutricksen? Ein Laserstrahl reicht – schon bekommt der Begriff „Fernbedienung“ eine völlig neue Bedeutung.

Denn wie seriöse Forscher aus USA und Japan belegt haben, ist es tatsächlich möglich, aus 75 Meter Entfernung einen „smarten“ Lautsprecher fernzusteuern. Man muss also nicht im selben Raum sein wie Amazon Echo, Google Home, Apple Homepod – oder sogar ein Smartphone oder Tablet mit aktiviertem Sprachassistenten. Dem Assistentsystem lassen sich per direkt auf das Mikrofon gerichteten Laserstrahl Sprachbefehle „injizieren“ – etwa vom Haus gegenüber, direkt durchs Fenster.

Sprachbefehle per Laserstrahl übertragen

Der Sprachassistent meint etwas zu hören – und führt die Anweisungen aus. Das geschieht lautlos. Man kann als Eigentümer direkt daneben stehen und bekommt nichts davon mit. Der von den Forschern auf ihrer Projektseite ausführlich vorgestellte Versuchsaufbau erinnert an Hollywood-Agentenfilme, ist aber am Ende doch so simpel, dass ein Einsatz alles andere als undenkbar erscheint. Viel mehr als ein technisches Equipment im Wert von 500 Euro und direkter Sichtkontakt mit den Lautsprechern sind nicht nötig, um handelsübliche Asssitentsysteme auszutricksen.

Nicht, dass sich diese Form der Fernebedinung nun gleich zum massenhaften Missbrauch eignet. Aber es zeigt: Es gibt unfassbare Sicherheitslecks. So ein Assistent, der im Wohnzimmer steht und ständig zuhört, ist zu blöd um festzustellen, ob ein lebendiger Mensch im Raum steht und etwas sagt. Auch ob es das „Herrchen“ oder „Frauchen“ ist, spielt erst mal keine Rolle. Es kann mit jeder Stimmte gesprochen werden – zur Not per Laserstrahl übertragen.

Nicht nur Wanze, sondern auch noch Schläfer

Mit den geeigneten Befehlen lassen sich möglicherweise Türen öffnen, der Strom abschalten – oder Einkäufe tätigen. Denkbar ist eine Menge. Und das alles nur, weil angeblich „smarte“ Lautsprecher zu Hause stehen, die faktisch zu dumm sind, die Situation korrekt zu erfassen. Wenn sie wenigstens nur von zugelassenen Usern Anweisungen entgegen nehmen würden… Aber selbst das wäre nur eine weitere Hürde, aber kein K.O.-Kriterium. Dann müssten die passenden Anweisungen aufgenommen oder synthetisch erzeugt werden. Heute alles mit überschaubarem Aufwand möglich.

Klares Fazit an dieser Stelle: Angriffe per Laserstrahl sind möglich, aber unwahrscheinlich. Unwahrscheinlich ist aber wenig überzeugend. Denn was möglich ist, das wird auch gemacht. Die neue wissenschaftliche Studie belegt eindrucksvoll, dass die von Kritikern gerne als „Wanzen“ titulierten Assistenzsysteme nicht nur abhören können, sondern sich auch zur gezielten Manipulation eignen. Sie sind also nicht nur Wanze, sondern auch Schläfer. Jederzeit aktivierbare Agenten, die sich gegen uns richten.