iOS 18.2 apporte plusieurs nouveautés sous l’ombrelle d’Apple Intelligence, dont Visual Intelligence, une exclusivité réservée aux iPhone 16. En appuyant longuement sur le bouton déclencheur la commande de l’appareil photo située sur le côté droit, on active ce nouveau mode qui est, pour résumer, l’équivalent de Google Lens dans l’univers Apple. L’appareil photo de l’iPhone est alors sollicité pour afficher le monde autour de vous, vous pouvez prendre une photo et Apple Intelligence est censé l’analyser et vous aider de plusieurs manières.

Les trois exemples d’Apple pendant la présentation des iPhone 16 concernaient les horaires d’un restaurant, l’ajout d’une date au calendrier à partir d’une affiche et enfin l’identification de la race d’un chien. Aucun des trois n’a réellement fonctionné pendant mes essais. Ni le premier, que j’ai testé en sortant de mon bureau (imaginez ça) pour aller essayer Visual Intelligence devant les devantures des crêperies du coin. Des tests sur des affiches m’ont permis d’identifier des dates, mais un bug m’empêchait alors d’ajouter un élément au calendrier. Quant à l’identification des animaux, je ne manque pas de chats et cela n’a rien donné non plus.