Siri a largement dépassé son rôle de simple assistant vocal des débuts. Apple utilise ce nom pour désigner toutes les fonctions d’assistance de ses produits, qu’il s’agisse des suggestions d’apps de Spotlight, des résultats de recherche dans Safari ou bien du cadran dédié de watchOS 4. Toutes ces fonctions n’ont d’intérêt que si Siri en sait le maximum sur vous, mais le constructeur a toujours refusé de collecter des données personnelles.
Dans un entretien accordé à Fast Company, Greg Joswiak a réitéré cet engagement et assuré qu’Apple pouvait en offrir autant que ses concurrents, mais sans compromettre la vie privée de ses utilisateurs. La clé, rappelle-t-il, est de faire le maximum directement sur les appareils Apple qui sont déjà très puissants et ne cessent de s’améliorer, génération après génération.
Photos, par exemple, analyse tous vos clichés à la recherche des personnes et aussi des objets qui s’y trouvent, mais l’app fait tout ce travail sans aucun serveur (lire : Photos : Apple copie Google… la confidentialité en plus). Chaque iPhone, iPad et Mac est mis à contribution pour enrichir la bibliothèque de l’utilisateur, iCloud ne servant plus qu’à synchroniser les données chiffrées. Avec iOS 11, les noms des personnes identifiées seront aussi synchronisés via iCloud, mais les serveurs ne servent qu’à transférer les données, pas à faire le travail d’identification lui-même.
C’est la même chose pour les commandes vocales de Siri. Par exemple, si vous demandez à l’assistant de créer un rendez-vous avec Jean, la requête est effectivement envoyée sur les serveurs d’Apple pour la partie reconnaissance, mais c’est votre appareil qui se charge de l’effectuer en local. C’est votre appareil qui crée l’événement et qui va chercher le bon contact dans votre carnet d’adresse local, le serveur n’a renvoyé qu’une directive générique et impersonnelle.
Cette stratégie est centrale chez Apple et elle distingue l’entreprise de Google ou de Facebook, où le serveur est au centre. Jusque-là, l’entreprise de Tim Cook a été pénalisée par ce choix en termes de fonctions et d’intelligence, mais les modèles s’améliorent chaque année et les vitesses de traitement aussi. Le constructeur travaillerait même sur une puce dédiée spécifiquement à l’intelligence artificielle, pour améliorer encore son assistant.
L’article détaille le processus mis en place par Apple pour améliorer son assistant. L’entreprise exploite bien ses serveurs, mais uniquement sur des données anonymes, et uniquement pour créer les modèles de données. Pour faire simple, les fonctions d’intelligence artificielle reposent toutes sur un modèle qui doit permettre de faire face à n’importe quelle situation. Il ne s’agit plus seulement de programmer une série de questions/réponses comme aux débuts de Siri, il s’agit de créer un système capable de comprendre n’importe quelle question et d’apporter une réponse appropriée.
Pour que Siri apprenne à apprendre, Apple travaille sur six mois de données anonymes et génère à partir de cette masse d’informations un modèle de machine learning. Ce modèle est ensuite intégré à iOS, macOS et watchOS et il est appliqué aux données en local. À ce stade, il n’y a plus d’interaction avec les serveurs, c’est Siri qui travaille en local à partir du modèle créé sur les serveurs.
Ce modèle est constamment amélioré par Apple sur ses serveurs, à partir des données collectées anonymement et chaque mise à jour des systèmes d’exploitation est l’occasion d’améliorer Siri sur tous les iPhone, iPad, Mac et Apple Watch. Cela sert autant pour améliorer la qualité de la reconnaissance vocale de Siri, que pour détecter un rendez-vous dans un message ou un mail, ou bientôt pour améliorer les cartes présentées sur le cadran Siri des montres.
Les données les plus importantes, toutes celles qui concernent votre vie privée, restent ainsi sur votre terminal. Elles transitent sur les serveurs d’Apple, uniquement pour la synchronisation, chiffrées de bout en bout et donc illisibles même si l’entreprise le souhaitait. Ces données peuvent représenter plusieurs centaines de mégaoctets et elles sont enrichies régulièrement. Par exemple, iOS 11 est capable de comprendre que vous vous intéressez à un lieu à partir de vos recherches Safari et proposer des résultats liés à ce lieu.
Cette transformation de Siri vers l’intelligence artificielle est encore assez récente, elle a commencé il y a seulement deux ans. Auparavant, Apple était resté sur le modèle original, assez simple, où l’assistant vocal piochait dans une immense base de données de questions et réponses. Le constructeur en a aussi profité pour développer son propre moteur de reconnaissance vocale et remplacer celui de Nuance qui servait jusque-là. Et l’intelligence artificielle a aussi servi à améliorer la qualité des voix.
Tous ces efforts sont toujours en cours et les effets sont surtout visibles pour les utilisateurs anglophones pour le moment. iOS 11 apporte justement des voix anglaises en net progrès en termes de réalisme. Tout le monde devrait toutefois en profiter à terme, tandis qu’Apple devrait continuer à améliorer en permanence les modèles sur ses serveurs.