Microsoft va poursuivre son programme d'écoute visant à améliorer le service de traduction automatique de Skype. Il s'est avéré que l'éditeur faisait écouter à des sous-traitants humains des extraits audio de quelques secondes provenant d'utilisateurs de ce service (lire : Skype Translator : Microsoft utilise aussi des oreilles humaines). C'est également le cas pour Cortana. Pas vraiment une surprise : Apple, Google, Amazon et Facebook aussi procèdent de même pour leurs différents assistants.
Mais contrairement aux autres1, Microsoft a décidé de continuer à faire écouter ces fragments audio anonymisés. L'entreprise a en fait revu, en des termes plus clairs, sa déclaration de confidentialité. On peut ainsi y lire :
Notre traitement de données personnelles à ces fins inclut à la fois des méthodes de traitement automatisées et manuelles (humaines). (…) Nous examinons manuellement les extraits de code courts d’un petit échantillon de données vocales. Nous avons suivi des étapes pour les rendre anonymes afin d'améliorer nos services vocaux, tels que la reconnaissance et la traduction.
Dans le même registre, Microsoft a aussi revu la foire aux questions de la fonction Skype Translator : on peut ainsi apprendre que des employés peuvent transcrire des enregistrements audio. L'éditeur assure également que les sous-traitants se doivent de respecter les standards les plus élevés en matière de respect de la vie privée, que ce soit en Europe ou ailleurs. La FAQ en anglais a été revue, pas encore sa version française.
À l'image de ce que propose Google et Amazon, Microsoft permet de supprimer les enregistrements audio sur son tableau de bord confidentialité. Mais il n'est pas (encore ?) possible de se retirer du programme d'écoute.
-
Amazon donne la possibilité de ne plus participer au programme d'écoute Alexa. ↩
Source : Motherboard