La semaine dernière, The Guardian a révélé qu’Apple avait recours à des prestataires de services pour passer en revue les enregistrements Siri – et que ces derniers finissaient souvent par tout entendre. Apple a déclaré vendredi dernier qu’elle a suspendu le recours à ces entrepreneurs pendant qu’elle examine le processus et qu’elle permettra aux utilisateurs de retirer leurs discussions Siri actuellement examinées par un sous-traitant humain. Cette capacité sera mise à jour lors d’une prochaine mise à jour logicielle.
Dans un e-mail adressé au Washington Post, un porte-parole d’Apple a déclaré que le géant à la pomme croquée s’était engagé à protéger la vie privée des utilisateurs. Après l’annonce d’Apple, Google a déclaré qu’elle allait également suspendre temporairement l’utilisation d’humains pour revoir les enregistrements de l’assistant vocal « OK Google ».
Les sous-traitants humains ont passé en revue les conversations avec Siri afin d’améliorer l’assistant virtuel. Les contractants écoutaient les enregistrements lorsque Siri était déclenché, mais ne fournissaient pas de réponse afin de déterminer si, dans ce cas, elle aurait dû pouvoir le faire. L’objectif derrière ces auditeurs humains était de mieux comprendre les situations dans lesquelles Siri pourrait échouer afin de pouvoir être améliorée à l’avenir. Ils écoutaient un enregistrement, déterminaient si l’utilisateur voulait activer Siri et notaient sa réponse (ou son absence).
Cependant, cet élément humain n’était pas clair pour les utilisateurs.
Il fallait clarifier la situation
Un dénonciateur qui travaillait comme sous-traitant à l’écoute des paroles Siri a rapporté au Guardian que les sous-traitants étaient souvent en mesure d’entendre des choses comme des renseignements médicaux sensibles et que les enregistrements étaient accompagnés de données d’utilisateur qui indiqueraient leur emplacement et certains détails personnels.
Moins de 1 % des activations quotidiennes de Siri ont été envoyées à des entrepreneurs humains pour évaluation. « Les demandes des utilisateurs ne sont pas associées à l’identifiant Apple de l’utilisateur. Les réponses de Siri sont analysées dans des installations sécurisées et tous les évaluateurs sont tenus de respecter les strictes exigences de confidentialité d’Apple », a déclaré Apple dans une déclaration au Guardian lorsque le problème a été révélé à l’origine.
Apple n’est pas la première entreprise à être confrontée à ce problème. Plus tôt cette année, Amazon a été la cible de critiques pour des problèmes analogues avec son assistant personnel, Alexa. Tout comme Apple, Amazon utilise des humains pour analyser les enregistrements des réponses d’Alexa. Elle conserve également les données textuelles des demandes même lorsqu’un utilisateur supprime un enregistrement.
Amazon propose désormais, dans les paramètres d’Alexa, une option permettant aux clients de choisir de ne pas utiliser leurs données pour améliorer le service.