2019-07-29 07:52

Sexe, drogue et santé: Siri entend plus que ce que vous lui dites

iPhone

Apple écoute des extraits audio enregistrés par son assistant vocal Siri. Ce dernier se déclenchant parfois par erreur, certains enregistrements sont étonnants.

Photo d'illustration.

Photo d'illustration.

(Photo: Ben Kolde/Unsplash)

  • LPH

Ces derniers mois, Apple n’a de cesse de vanter sa supériorité sur ses concurrents en terme de protection des données, notamment via une campagne de publicité en vidéo avec pour slogan: «Ce qui est privé doit le rester».

Pourtant, il s'avère que le géant à la pomme écoute certains extraits audio enregistrés par son assistant vocal Siri. C'est ce que révèle un lanceur d'alertes dont les propos ont été publiés par le quotidien britannique The Guardian.

Le processus a pour but d’identifier les failles de l’assistant et de l’améliorer. Une petite partie des enregistrements de Siri, moins de 1% selon Apple, sont donc sélectionnés au hasard et envoyés à des «reviewers». Le but: vérifier si Siri a correctement compris ce qui lui était demandé, si sa réponse était pertinente, ou encore si l'assistant vocal a bien été activé intentionnellement.

Une fermeture éclair peut déclencher Siri

Beaucoup de ces enregistrements sont déclenchés par erreur. Ainsi, Siri «pense» parfois à tort que sa phrase d’activation («Hey Siri» en anglais, «Dis Siri» en français) a été prononcée, par exemple quand l'iPhone capte le bruit d’une fermeture éclair. De même, quand une Apple Watch bouge par des mouvements de bras et que des paroles sont prononcées, Siri s'enclenche automatiquement, ce qui cause un nombre d'enregistrements accidentels «incroyablement haut», peut-on lire dans le Guardian.

Parmi les sons enregistrés, «on peut entendre un médecin et son patient» ou encore «certaines conversations qui ressemblent beaucoup à un deal de drogue. Parfois, des gens en train de coucher ensemble sont accidentellement enregistrés par une enceinte connectée ou une montre», raconte le lanceur d'alerte.

Pas des employés d'Apple

Interrogé par le Guardian, Apple précise que les enregistrements ne durent que quelques secondes et ne sont pas liés aux identifiants de leurs client(e)s. Mais même si les identités ne sont pas directement reliées aux enregistrements, le personnel a tout de même accès aux coordonnées, contacts et données des applications liées à l'appareil utilisé, affirme la source du Guardian.

De plus, les enregistrements ne sont pas consultés par des personnes directement employées par Apple, qui sous-traiterait auprès d'entreprises tierces. Et toujours selon le lanceur d'alertes, ils ne sont «pas vraiment triées sur le volet».

Contrairement à Amazon et Google, qui permettent à leur clientèle de refuser que leurs enregistrements soient utilisés pour améliorer le service, le seul moyen pour y échapper chez Apple est de désactiver Siri entièrement.