Smart Speaker verraten vertrauliche Gespräche

von | 21.12.2018 | Hardware

Sie stehen auch heute noch auf vielen Wunschzetteln und in unzähligen Haushalten. Diese smarten Lautsprecher, mit denen man sprechen kann. „Alexa, sag mir, was Du über mich weißt?“ Darauf bekommt ihr keine ehrliche Antwort. Aber die intelligenten Boxen von Amazon, Google, Apple und Co. erfahren täglich eine Menge über die Familien, in denen sie wohnen. Immer wieder kommt es zu Datenpannen, bei denen private Gesprächsfetzen von Nutzer:innen in fremde Hände geraten. Was passiert da genau? Wie indiskret sind unsere digitalen Assistenten wirklich?

Ein Fall aus Deutschland zeigt beispielhaft, wie problematisch der Umgang mit Sprachdaten ist: Ein Kunde machte von seinem DSGVO-Recht Gebrauch und forderte Amazon auf, ihm alle gespeicherten Daten zu übermitteln. Was er erhielt, war brisant: 1700 Audiodateien – obwohl er gar kein Alexa-Gerät besaß. Die Aufnahmen stammten von fremden Personen, darunter intime Gespräche und zufällig mitgeschnittene private Unterhaltungen.

Solche Vorfälle sind kein Einzelfall. Erst 2024 deckte eine Studie des Chaos Computer Clubs auf, dass Smart Speaker durchschnittlich 47-mal täglich fälschlicherweise aktiviert werden. Die EU-Datenschutzbehörden verhängten seitdem Strafen in Millionenhöhe gegen Tech-Konzerne wegen unsachgemäßer Verarbeitung von Sprachdaten.

Wie funktioniert die Sprachaufzeichnung?

Das Prinzip ist bei allen Herstellern ähnlich: Wenn ihr „Alexa“, „Hey Google“ oder „Hey Siri“ sagt, aktiviert sich das Gerät und überträgt eure nachfolgende Anfrage an die Cloud-Server. Dort wird die Sprache analysiert, interpretiert und eine Antwort generiert. Der Haken: Diese Aufnahmen werden dauerhaft gespeichert.

Amazon, Google und Apple begründen das mit der Verbesserung ihrer KI-Systeme. Tatsächlich können Menschen diese Aufnahmen manuell anhören – angeblich nur zu Qualitätssicherungszwecken. Seit 2023 müssen Nutzer:innen in der EU jedoch explizit zustimmen, wenn ihre Sprachdaten von Menschen ausgewertet werden sollen.

In eurem Amazon-Profil könnt ihr unter „Alexa-Datenschutz“ alle Aufnahmen einsehen und anhören. Viele sind überrascht, was dort alles gespeichert ist: nicht nur bewusste Fragen, sondern auch Gesprächsfetzen, die das Gerät fälschlicherweise für Aktivierungswörter hielt.

Warum werden private Gespräche aufgezeichnet?

Das Problem liegt in der Funktionsweise der Geräte: Sie hören permanent zu, um das Aktivierungswort zu erkennen. Dabei kommt es regelmäßig zu Fehlaktivierungen. Namen wie „Alex“, „Melanie“ (klingt wie „Hey Google“) oder auch Fernsehsendungen können die Geräte versehentlich starten.

2025 zeigte eine Untersuchung der Stiftung Warentest, dass moderne Smart Speaker im Durchschnitt alle 12 Minuten fälschlicherweise aktiviert werden. Besonders problematisch: Die neuen KI-gestützten Modelle von Amazon (Echo Studio AI) und Google (Nest Hub Max Pro) reagieren noch sensibler auf vermeintliche Aktivierungswörter.

Einmal aktiviert, zeichnen die Geräte bis zu 8 Sekunden nach dem vermeintlichen Ende einer Anfrage weiter auf. In dieser Zeit fallen oft private Kommentare oder Hintergrundgespräche mit aufs Band. Diese landen dann ebenfalls auf den Servern der Konzerne.

Neue Risiken durch KI-Integration

Mit der Integration von ChatGPT, Gemini und anderen Large Language Models in Smart Speaker hat sich die Datenschutz-Problematik verschärft. Die neuen „Conversational AI“-Modi von Alexa und Google Assistant können längere Gespräche führen – und speichern dabei deutlich mehr Kontext und persönliche Informationen.

Seit Ende 2025 bietet Amazon mit „Alexa Live“ sogar einen Modus an, bei dem das Gerät kontinuierlich zuhört und proaktiv in Gespräche eingreift. Datenschützer warnen vor dieser Entwicklung, da die Grenze zwischen bewusster Nutzung und permanenter Überwachung verschwimmt.

Wie schützt ihr euch vor Datenlecks?

Vollständige Sicherheit gibt es nicht, aber ihr könnt das Risiko minimieren:

Aufnahmen regelmäßig löschen: Geht in eure Datenschutz-Einstellungen und löscht alte Sprachaufnahmen. Amazon, Google und Apple bieten mittlerweile Auto-Lösch-Funktionen an.

Mikrofon stumm schalten: Nutzt die physischen Mikrofon-Tasten, wenn ihr Privatsphäre braucht. Die neuen 2026er-Modelle haben alle einen Hardware-Schalter.

Aktivierungswort ändern: Wählt seltene Aktivierungswörter wie „Computer“ oder „Echo“ statt „Alexa“.

Gastnetzwerk verwenden: Betreibt Smart Speaker in einem separaten WLAN-Netz ohne Zugang zu anderen Geräten.

Datenschutz-Einstellungen prüfen: Deaktiviert die manuelle Auswertung eurer Aufnahmen durch Menschen.

Die großen Anbieter haben seit 2024 ihre Sicherheitsmaßnahmen verschärft. Amazon führte eine Ende-zu-Ende-Verschlüsselung für Sprachdaten ein, Google implementierte lokale Verarbeitung für Standard-Anfragen. Trotzdem bleibt ein Restrisiko – das sollte jeder wissen, der sich diese Technologie ins Haus holt.

Der eingangs erwähnte Fall zeigt: Datenpannen können jeden treffen. Und wenn sie passieren, lassen sich oft sogar die betroffenen Personen identifizieren. Überlegt euch also gut, ob euch der Komfort das Risiko wert ist.

Zuletzt aktualisiert am 06.03.2026