Bei Apple Siri hören keine Menschen mehr zu!

Bei Apple Siri hören keine Menschen mehr zu!

Stichprobenartig hören Menschen aus Fleisch und Blut in ausgewählte Gesprächsfetzen hinein, die Digitale Assistenten wie Siri, Alexa, Cortana oder Google Assistant nicht verstanden haben. Um die Qualität zu verbessern. Das Problem: Die meisten User ahnen nichts davon – und es macht einen Unterschied, ob Menschen oder Maschinen mithören. Apple hat die Praxis jetzt erst mal gestoppt.

(mehr …)

Sprachassistenten: Wissenschaftlicher Dienst hat Bedenken

Sprachassistenten: Wissenschaftlicher Dienst hat Bedenken

Wenn wir mit unseren eigenen Sprachassistenten sprechen, ist das eine Sache. Wir wissen, dass sie da sind, wo sie stehen und auf welche Schlüsselbegriffe sie reagieren. Doch Besucher wissen das nicht – und Kinder können die Risiken nicht einschätzen. Durchaus problematisch, findet der Wissenschaftliche Dienst des Deutschen Bundestages.

(mehr …)

Hey Siri, wie ist Dein Frauenbild?

Hey Siri, wie ist Dein Frauenbild?

Die meisten Digitalen Assistenzsysteme sprechen mit weiblicher Stimme – dasselbe gilt für Navisysteme. Nun ist die Unesco aber der Ansicht, die oft zu laschen Antworten von Siri, Alexa und Co. auf „dumme Sprüche“ wären geeignet, Geschlechtervorurteile zu fördern.

(mehr …)

Amazon Echo verrät vertrauliche Gespräche

Amazon Echo verrät vertrauliche Gespräche

Sie liegen dieses Jahr ziemlich häufig unterm Tannenbaum. Diese mehr oder weniger kleinen smarten Boxen, mit denen man sprechen kann. „Alexa, sag mir, was Du über mich weißt?“ Darauf bekommt man keine Antwort. Aber der Mini-Lautsprecher von Amazon erfährt auf Dauer so einiges über die Familie, in der er wohnt. Jetzt hat es aber eine riesige Datenpanne gegeben. Amazon hat Gesprächsfetzen von Alexa-Nutzern an Fremde übergeben. Was ist da los? Ist Alexa indiskret?

(mehr …)

Datenschutz: Cortana und Siri leeren

Datenschutz: Cortana und Siri leeren

Wird ein digitaler Assistent aufgerufen, wird der Sprachbefehl des Nutzers auf den Server des Unternehmens hochgeladen und im Account des Users gespeichert. Unabhängig davon, ob ein intelligenter Lautsprecher oder ein Telefon verwendet wird, ist es wichtig zu wissen, wie sich solche Sprach-Aufzeichnungen von den Microsoft- und Apple-Servern auch wieder löschen lassen, um die Privatsphäre zu schützen.

Bei Cortana

Wer den Verlauf der Sprach-Aufzeichnungen bei Cortana löschen will, öffnet zunächst die Webseite https://account.microsoft.com/privacy/activity-history?view=voice. Nach der Anmeldung mit dem Microsoft-Konto, falls nötig, erscheint eine Liste mit allen Aufnahmen, die Cortana archiviert hat.

Mit Cortana unter Windows 10 lassen sich auch andere Suchbegriffe löschen und die Menge der gesammelten Informationen kann dadurch eingeschränkt werden.

Bei Siri

Was Microsoft anbietet, steht Nutzern bei Apple nicht zur Verfügung, nämlich eine Liste der bisher gemachten Aufnahmen. Sie lassen sich hier weder einsehen noch anhören oder gezielt löschen. Stattdessen klappt dies nur insgesamt.

Dazu zunächst Siri für aktives Zuhören ausschalten. Zudem noch die Diktat-Funktion unter Einstellungen, Allgemein, Tastatur, Diktier-Funktion verwenden abstellen.

Eigentlich sollen Cortana, Siri und Co. Sprache ja nur dann aufzeichnen, wenn ein bestimmtes Wort gefallen ist – also z.B. „Hey Cortana“ oder auch „Hey Siri“. Das klappt aber nicht immer – mitunter hören diese Geräte auch dann zu, wenn dieses Wort nicht gesagt wurde, wenn sie es nämlich vermeintlich gehört haben.

Auch wenn andere Personen im Raum sind, wenn ein Lautsprecher ausgelöst wird, nimmt dieser auf, was alle Anwesenden reden. Daraus lässt sich leicht ableiten, wie es hier um die Privatsphäre steht.