Siri, Alexa ou encore l'Assistant de Google ont l'ouïe fine. Bien plus que la nôtre, et cela n'est pas sans poser des problèmes de sécurité : des chercheurs américains et chinois ont trouvé une astuce pour forcer ces assistants à agir à l'insu de leurs utilisateurs légitimes. Comment ? En susurrant dans ces oreilles numériques des commandes vocales qu'elles seules peuvent entendre : ouvre la porte, transfère des fonds, achète tel ou tel bidule… sans l'autorisation de l'utilisateur qui n'a de toute manière rien entendu.
Ces commandes sont insérées dans des enregistrements musicaux ou dans des podcasts. L'auditeur, si on peut dire, n'y entend que du feu, persuadé d'écouter sa liste de lecture ou son émission préférée. Alors qu'en fait, peut-être que cette voix inaudible est en train de commander des palettes de croquettes pour chats sur Amazon, ou pire encore.
Ces attaques audio s'appuient sur le fonctionnement inhérent à la reconnaissance vocale : chaque son est « traduit » en lettre, qui devient un mot puis une phrase et en bout de course, une commande vocale. En modifiant légèrement les fichiers audio, les chercheurs sont en mesure d'annuler le son que le système de reconnaissance vocale est censé entendre pour le remplacer par un son qui sera traduit différemment par la machine. Sans que ce soit détectable par l'oreille humaine…
Les attaques de ce genre peuvent même aller encore plus loin. Des chercheurs ont montré que ces assistants pouvaient être activés via des commandes passées à des fréquences inaudibles à l'oreille humaine. Mieux (ou pire encore), ces attaques baptisées DolphinAttack coupent d'abord le volume du smartphone, empêchant ainsi l'utilisateur d'écouter les réponses des assistants.
Il faut néanmoins que le brigand soit proche de la victime pour accomplir son forfait ; néanmoins l'attaque peut venir de plus loin en utilisant des systèmes ultrasoniques plus puissants, qui sont toutefois bloqués par les murs.
Il n'existe aucune preuve que ces techniques aient été utilisées par des malandrins, rassurent les chercheurs. Mais il ne s'agit peut-être que d'une question de temps avant qu'un petit malin exploite cette faiblesse. Les trois constructeurs assurent néanmoins faire le nécessaire pour empêcher ces attaques.
Amazon indique ainsi avoir pris des mesures pour sécuriser ses enceintes Echo ; Google a mis au point des fonctions qui permettent à son Assistant d'atténuer les commandes vocales indétectables. Ces deux entreprises précisent aussi qu'elles utilisent des technologies de reconnaissance vocale qui empêchent les appareils de répondre à des ordres sans qu'ils aient au préalable identifié la voix de l'utilisateur.
Apple explique de son côté que le HomePod a été conçu pour éviter que des commandes puissent ouvrir les portes. Par ailleurs, l'iPhone et l'iPad doivent être déverrouillés avant que Siri n'accède à des données sensibles ou n'ouvre une application ou un site web.
Ces sécurités peuvent toutefois être contournées très facilement. En avril dernier, une réclame pour Burger King lançait inopinément l'assistant de Google (le moteur de recherche a rapidement trouvé la parade).
Plus récemment, les fausses pubs « OK Moogle » diffusées durant les premiers épisodes de la nouvelle saison du Burger Quiz sont parvenues à activer les enceintes Home chez certains utilisateurs…
Source : New York Times