Bei Apple Siri hören keine Menschen mehr zu!

von | 04.08.2019 | Digital

Die Zeiten, in denen Menschen heimlich Siri-Aufnahmen abhörten, sind vorbei – doch bei anderen Anbietern sieht es anders aus. Apple hat seine Praktiken grundlegend geändert, während die Diskussion um Privatsphäre bei Sprachassistenten weiterhin brodelt. Ein Überblick über den aktuellen Stand der Dinge.

Heute schon ein paar Worte mit Alexa, Google Assistant oder Siri gewechselt? Den meisten ist immer noch nicht völlig klar, was passiert, nachdem das Wake-Word („Alexa“, „Hey Google“, „Hey Siri“) gefallen ist. Die Geräte stellen blitzschnell eine verschlüsselte Online-Verbindung zu den Servern des jeweiligen Anbieters her, übertragen das Gesagte und warten auf die Auswertung durch fortgeschrittene KI-Modelle. Das geschieht mittlerweile so rasend schnell, dass die Menschen oft denken, das Smartphone oder der Smart Speaker hätte alles lokal erledigt. Ist aber nicht so.

Apples radikaler Kurswechsel bei Siri

Apple hat seit 2019 einen drastischen Kurswechsel vollzogen. Während früher tatsächlich Menschen stichprobenartig Siri-Aufnahmen abhörten, um die Spracherkennung zu verbessern, läuft das heute komplett anders. Apple setzt nun vollständig auf maschinelles Lernen und KI-basierte Auswertung für die Qualitätsverbesserung von Siri.

Zudem verarbeitet Apple seit iOS 15 und macOS Monterey viele Siri-Anfragen direkt auf dem Gerät („On-Device Processing“). Das bedeutet: Häufige Befehle wie Timer stellen, Musik abspielen oder Apps öffnen werden gar nicht mehr an Apple-Server gesendet. Nur komplexere Anfragen, die Internetdaten benötigen, gehen noch online.

Apple hat außerdem ein Opt-in-System eingeführt: Nur wer explizit zustimmt, trägt zur Verbesserung von Siri bei. Und selbst dann hören keine Menschen mehr zu, sondern speziell trainierte KI-Systeme analysieren anonymisierte Daten.

Andere Anbieter handhaben es unterschiedlich

Bei Amazon und Google sieht die Lage komplexer aus. Amazon hat zwar die Möglichkeit geschaffen, das menschliche Abhören von Alexa-Aufnahmen zu deaktivieren, aber ihr müsst das aktiv in den Einstellungen tun. Standardmäßig ist es weiterhin aktiviert. Google bietet ähnliche Opt-out-Möglichkeiten, aber auch hier ist die Zustimmung oft in den Standard-Einstellungen versteckt.

Besonders problematisch: Externe Dienstleister werden oft für die Auswertung eingesetzt. Diese Mitarbeiter bekommen Zugang zu Gesprächsfetzen, ohne dass die User wissen, wer genau zuhört und unter welchen Sicherheitsbedingungen das geschieht.

Was bedeutet „anonymisiert“ wirklich?

Die Behauptung der Anonymisierung klingt beruhigend, ist aber oft problematisch. Auch ohne Namen können Gesprächsinhalte verräterisch sein: Wer über spezifische Termine, Orte oder persönliche Details spricht, kann durchaus identifizierbar werden. Forscher haben mehrfach gezeigt, dass sich aus vermeintlich anonymen Sprachdaten Rückschlüsse auf Identitäten ziehen lassen.

Dazu kommt: Moderne KI-Systeme können aus Sprachmustern, Hintergrundgeräuschen und Gesprächskontext deutlich mehr Informationen extrahieren als früher. Was 2019 noch als „sicher anonymisiert“ galt, könnte heute durchaus re-identifizierbar sein.

Praktische Tipps für mehr Privatsphäre

Ihr könnt euch schützen:

  • Bei Apple: Die meisten Siri-Verarbeitungen laufen bereits lokal. In den Einstellungen unter „Siri & Suchen“ könnt ihr zusätzlich die Verbesserungsoptionen deaktivieren.

  • Bei Amazon: Geht in die Alexa-App → Einstellungen → Datenschutz → Sprachaufnahmen verwalten. Deaktiviert „Zur Entwicklung neuer Features verwenden“.

  • Bei Google: In den Google-Kontoeinstellungen unter „Daten & Datenschutz“ findet ihr die Web- & App-Aktivitäten. Hier könnt ihr die Sprachaufzeichnung einschränken.

Die Zukunft: Edge-Computing statt Cloud

Der Trend geht klar in Richtung lokaler Verarbeitung. Moderne Smartphones und Smart Speaker haben mittlerweile genug Rechenpower, um viele Sprachbefehle direkt auf dem Gerät zu verarbeiten. Apple macht es vor, Google und Amazon ziehen langsam nach.

Die nächste Generation von Sprachassistenten wird wahrscheinlich zu 80-90% lokal funktionieren. Nur für komplexe Internetabfragen oder spezialisierte Services wird noch eine Cloud-Verbindung nötig sein. Das löst das Abhör-Problem weitgehend.

Fazit: Apple ist Vorreiter beim Datenschutz

Apples Entscheidung, komplett auf menschliche Auswertung zu verzichten und auf lokale Verarbeitung zu setzen, war richtig und überfällig. Andere Anbieter sollten nachziehen. Als User habt ihr aber heute schon die Kontrolle – ihr müsst nur die richtigen Einstellungen kennen und nutzen.

Die goldene Regel: Schaut regelmäßig in die Datenschutz-Einstellungen eurer Geräte. Was heute noch aktiviert ist, könnt ihr morgen deaktivieren. Und bei neuen Features solltet ihr immer genau hinschauen, was ihr da eigentlich erlaubt.

Zuletzt aktualisiert am 04.03.2026