Wie sich Alexa und Co. mit Laserpointern austricksen lassen

von | 07.11.2019 | Hardware

Forscher haben eine ungewöhnliche Methode entdeckt, mit der sich handelsübliche Assistenzsysteme wie Alexa, Google Home oder Siri austricksen lassen: Aus sicherem Abstand kann mit einem Laserstrahl eine Anordnung zum Assistenten übertragen werden – ganz so, als stünde man daneben. Ein ernsthaftes Sicherheitsrisiko, das auch 2026 noch relevant ist.

Was braucht man, um einen modernen Sprachassistenten wie Google Home, Amazon Alexa oder Apples Siri auszutricksen? Ein Laserstrahl reicht – schon bekommt der Begriff „Fernbedienung“ eine völlig neue Bedeutung.

Denn wie seriöse Forscher aus USA und Japan bereits vor Jahren belegten, ist es tatsächlich möglich, aus 75 Meter Entfernung einen „smarten“ Lautsprecher fernzusteuern. Diese als „Light Commands“ bekannt gewordene Angriffsmethode funktioniert auch heute noch bei vielen Geräten – trotz zwischenzeitlicher Software-Updates und neuer Geräteversionen.

Dem Assistentsystem lassen sich per direkt auf das Mikrofon gerichteten Laserstrahl Sprachbefehle „injizieren“ – etwa vom Haus gegenüber, direkt durchs Fenster. Der Trick funktioniert, weil die MEMS-Mikrofone in Smart Speakern nicht nur auf Schallwellen, sondern auch auf Lichtsignale reagieren können.

Sprachbefehle per Laserstrahl übertragen

Der Sprachassistent meint etwas zu hören – und führt die Anweisungen aus. Das geschieht lautlos. Man kann als Eigentümer direkt daneben stehen und bekommt nichts davon mit. Der von den Forschern auf ihrer Projektseite ausführlich vorgestellte Versuchsaufbau erinnert an Hollywood-Agentenfilme, ist aber am Ende doch so simpel, dass ein Einsatz alles andere als undenkbar erscheint.

Viel mehr als technisches Equipment im Wert von wenigen hundert Euro und direkter Sichtkontakt mit den Lautsprechern sind nicht nötig, um handelsübliche Assistentsysteme auszutricksen. Tests haben gezeigt, dass sowohl aktuelle Amazon Echo-Generationen als auch Google Nest-Geräte und sogar Smartphones mit aktivierten Assistenten anfällig sein können.

Moderne Angriffsvarianten und Gegenmaßnahmen

Inzwischen haben Sicherheitsforscher die ursprüngliche Methode weiterentwickelt. Mit modulierten Lasern lassen sich mittlerweile komplexere Befehle übertragen, und sogar Infrarotlaser können zum Einsatz kommen – unsichtbar für das menschliche Auge. Besonders problematisch: Die Angriffe funktionieren auch durch dünnes Glas hindurch.

Einige Hersteller haben reagiert. Amazon hat bei neueren Echo-Geräten die Mikrofonempfindlichkeit angepasst, Google implementierte zusätzliche Authentifizierungsschritte für kritische Aktionen. Apple führte bei Siri strengere Verifizierungsverfahren ein, wenn es um Käufe oder Smart-Home-Steuerung geht.

Dennoch bleibt das Grundproblem bestehen: Die meisten Assistenten können nicht zwischen echten Stimmen und künstlich erzeugten Signalen unterscheiden. Auch die inzwischen weit verbreitete Spracherkennung bietet keinen vollständigen Schutz – KI-generierte Stimmen werden immer überzeugender.

Smart Home als Einfallstor

Besonders brisant wird die Sache, wenn die Sprachassistenten mit Smart-Home-Systemen verbunden sind. Mit den geeigneten Befehlen lassen sich möglicherweise Türschlösser öffnen, Alarmanlagen deaktivieren oder die Heizung manipulieren. In vernetzten Haushalten können so ganze Sicherheitssysteme umgangen werden.

Moderne Smart-Home-Hubs wie Samsung SmartThings, Philips Hue Bridge oder Homematic IP reagieren auf Sprachbefehle – egal ob diese von Menschen oder Laserstrahlen stammen. Selbst 2026 ist dies ein ungelöstes Problem vieler Systeme.

Auch Einkäufe lassen sich über kompromittierte Assistenten tätigen. Zwar haben Amazon und andere Anbieter Kaufbestätigungen eingeführt, aber clevere Angreifer finden Wege, auch diese zu umgehen – etwa durch das Ausnutzen bereits gespeicherter Zahlungsmethoden oder Standardbestellungen.

Schutz vor Laser-Angriffen

Wer sich schützen will, hat mehrere Optionen: Die einfachste ist, Sprachassistenten nicht direkt am Fenster zu platzieren. Auch das Deaktivieren bestimmter Funktionen wie Online-Käufe oder Smart-Home-Steuerung per Sprache reduziert das Risiko erheblich.

Viele Geräte bieten inzwischen „Voice Match“ oder ähnliche Funktionen, die nur auf bekannte Stimmen reagieren. Diese Schutzmaßnahmen sind aber nicht hundertprozentig sicher – mit KI-Tools lassen sich heute täuschend echte Stimmenimitationen erstellen.

Professionelle Smart-Home-Installationen setzen daher zunehmend auf Mehrfaktor-Authentifizierung: Kritische Aktionen erfordern nicht nur Sprachbefehle, sondern zusätzlich Smartphone-Apps oder physische Bestätigung.

Ausblick: Neue Bedrohungen am Horizont

Die Laser-Angriffe sind nur die Spitze des Eisbergs. Sicherheitsexperten warnen vor neuen Angriffsvektoren: Ultraschall-Befehle, die für Menschen unhörbar sind, oder elektromagnetische Impulse, die Mikrofone manipulieren können.

Gleichzeitig arbeiten die Hersteller an besseren Schutzmaßnahmen. Neue MEMS-Mikrofone mit verbesserter Abschirmung, KI-basierte Anomalieerkennung und hardwarebasierte Sicherheitsmodule sollen künftig besseren Schutz bieten.

Klares Fazit: Die als „Wanzen“ kritisierten Assistenzsysteme sind nicht nur passive Abhörgeräte, sondern können sich auch zur gezielten Manipulation eignen. Sie sind Wanze und Schläfer zugleich – jederzeit aktivierbare Agenten, die sich gegen ihre Besitzer richten können. Auch 2026 bleibt dies eine ernste Sicherheitslücke im vernetzten Zuhause.

Zuletzt aktualisiert am 03.03.2026