Apple n’est pas la seule entreprise à miser sur la réalité augmentée. À l’occasion de sa conférence des développeurs qui s’ouvre aujourd’hui, Google a dévoilé de nouvelles fonctions pour son service de recherche et pour Lens. Les résultats d’une recherche dans Google Search pourront présenter des illustrations 3D à visionner sur son appareil… mais aussi dans son environnement direct. Exemple avec une recherche sur les requins :
Cela fonctionne aussi pour l’anatomie humaine, par exemple ce morceau de torse que l’on peut délicatement déposer sur son bureau :
Google n’oublie pas son modèle économique, puisque le moteur de recherche travaille avec Samsung, New Balance, Volvo ou encore Target pour créer des modèles 3D de leurs produits.
Google Lens, qui est disponible en français sur iOS depuis le mois de janvier, s’enrichit de nouvelles possibilités. Cet outil, qui prend la forme d’une icône d’appareil photo dans la barre de recherche de l’app de Google, analyse le monde environnant au travers de l’appareil photo de son smartphone. Et quand il repère quelque chose de connu, le service retourne des informations supplémentaires.
Lorsque Lens identifiera le menu d’un restaurant, il mettra en surbrillance les plats les plus populaires. Le service peut également traduire à la volée les mots d’un ticket de train, d’une affiche ou de n’importe quel document dans la langue de son choix. Google a également noué des partenariats avec des publications comme Bon Appetit : en numérisant une page d’une recette imprimée dans un magazine, la vidéo de préparation du plat se lancera automatiquement à travers Lens.
Ces fonctions sont évidemment rendues possibles grâce à l’analyse des milliards de données que possède Google et des techniques d’apprentissage automatique. Le tout, si on a bien compris, sera disponible dans les prochaines semaines.