Siri hört mit

Nun ist es also raus: Die Apple-Sprachsoftware Siri lauscht. Verschiedene Vertragspartner des iPhone-Herstellers Apple hören nach Angaben eines Insiders offenbar regelmässig über Siri aufgezeichnete Mitschnitte ab, wie der britische «Guardian» berichtet. Diese Sprachaufzeichnungen sollen private Gespräche enthalten, die die Spracherkennung des Apple-Systems ungewollt aufgenommen habe. So sollen etwa Patientengespräche, sexuelle Aktivitäten oder auch ein mutmassliches Drogengeschäft in Siri-Audiodateien festgehalten worden sein.

Siri lauscht sogar beim Sex

Dem Bericht zufolge sind weltweit einige Apple-Vertragspartner damit beauftragt, Sprachbefehle an Siri zu analysieren und anhand verschiedener Faktoren zu bewerten – darunter etwa, ob die Antwort richtig war, der Sprachassistent versehentlich aktiviert wurde oder es sich um eine Anfrage handelte, die Siri erledigen konnte.
Dem Informanten gemäss werde Siri häufig fälschlicherweise aktiviert, unter anderem durch das Geräusch eines Reissverschlusses, das die Assistenzsoftware als ihr Trigger-Wort «Hey Siri» interpretiere.

Sprachsystem häufig ungewollt aktiviert

iPhones und nahezu alle Apple-Geräte sind mit Siri ausgestattet. Am häufigsten würden laut dem Insider Fehlaktivierungen jedoch bei der Apple Watch und dem smarten Homepod-Lautsprecher des Konzerns erfolgen. Demnach sei die Regelmässigkeit ungewollter Aktivierungen auf der Apple Watch ausserordentlich hoch. Ungewolltes Aufwecken von Siri sei Apple als «technisches Problem» zu melden, Inhalte seien nicht Bestandteil von Meldungen.

Unerwünschtes Erfassen von Sprachdaten: Siri lauscht umfassend

Apple erklärte gegenüber dem «Guardian», dass ein kleiner Teil der Sprachanfragen analysiert werde, um Siri und die Spracheingabe zu verbessern. Sprich: Siri lauscht? Mhm. Weniger als ein Prozent der täglichen Siri-Aktivierungen werde ausgewertet, diese seien normalerweise nur ein paar Sekunden lang. Die Anfragen sollen nicht mit der Apple-ID der Nutzer verknüpft sein, erklärte das kalifornische Tech-Unternehmen.

Im August letzten Jahres hatte Apple in einer Antwort auf einen Brief verschiedener US-Politiker erklärt, dass mit Siri ausgerüstete Apple-Geräte nicht ohne Zustimmung die Umgebung abhörten und dies auch keinen Drittanbieter-Apps erlaubten.

Siri Sprachassistent auch auf dem Smarten Lautsprecher

Ähnliches Vorgehen bei Google und Amazon

Diesen Monat wurde bereits publik, dass bei Google aufgezeichnete Gespräche von Nutzern mit dem Google Assistant teilweise von Mitarbeitern angehört und analysiert werden –
auch um Angaben des Silicon-Valley-Webriesen zufolge die Assistenzsoftware in verschiedenen Sprachen zu verbessern. Einer der mit dieser Aufgabe betrauten Mitarbeiter des Konzerns hatte rund tausend solcher Sprachaufnahmen belgischer Nutzer an die Presse geleakt.

Im April war ausserdem bekannt geworden, dass Amazon aus Qualitätsgründen Mitarbeiter zum Teil aufgezeichnete Befehle der Assistenzsoftware Alexa abhören lässt. Demnach werde «eine sehr geringe Auswahl an Alexa-Sprachaufnahmen mit Kommentaren versehen, um das Kundenerlebnis zu verbessern», wie der Finanzdienst Bloomberg berichtete.