Ouvrir le menu principal

iGeneration

Recherche

Be My AI : quand GPT-4 décrit fidèlement l'environnement des personnes aveugles

Stéphane Moussie

jeudi 30 novembre 2023 à 20:30 • 11

App Store

Lancée en 2015 comme une plateforme d'entraide entre personnes non voyantes ou malvoyantes et volontaires voyants, l'application iPhone Be My Eyes accueille depuis quelques mois un nouveau bénévole disponible à n'importe quelle heure du jour ou de la nuit : GPT-4V. Le dernier modèle d'OpenAI, doté d'une fonction de vision, est mis à profit pour décrire précisément l'environnement des personnes ayant une déficience visuelle.

L'utilisation est simple : après avoir créé un compte dans l'application, on se rend dans le nouvel onglet Be My AI et on prend en photo l'objet ou la scène à décrire. La photo est alors envoyée sur les serveurs d'OpenAI pour être analysée par GPT-4V. Une dizaine de secondes plus tard, la description est affichée dans l'application et elle peut être lue par VoiceOver, le lecteur d'écran intégré à iOS.

Scène décrite par la fonction Be My AI.

« Le résultat de ces analyses est le plus poussé que je n’ai jamais vu dans aucune autre application de détection et de reconnaissance d’image », nous indique Tristan, un développeur aveugle qui nous a signalé l'existence de Be My AI. Depuis son lancement à la rentrée sur iOS (la version Android se fait attendre), la fonction a déjà été utilisée plus d'un million de fois par plusieurs milliers de personnes.

« Depuis que j'ai connaissance de cette nouveauté, je me suis amusé à la mettre à rude épreuve en lui faisant ingurgiter toutes sortes d'images prises en bougeant, depuis la fenêtre d'un TGV, le téléphone à l'envers, de nuit, de jour… Et jusqu'à l'heure, je n'ai pas franchement réussi à la prendre en défaut », note Tristan. Il y a bien de petites erreurs, comme une pile de linge prise pour une couverture pliée, mais pas de grosse confusion comme il pouvait y en avoir avec les premières technologies de reconnaissance d'image, selon lui.

« Les descriptions générées sont vraiment impressionnantes de précision : on a un résumé des éléments et s'il y a des gens, on a leur description ainsi que leur action, explique-t-il. S'il semble que l'IA galère parfois un peu avec les couleurs et les nuances, à cause des conditions d'éclairage par exemple, on est vraiment sur quelque chose de globalement cohérent. »

Demande de précision à GPT (qui aboutit à une erreur).

Il est même possible de demander à GPT des précisions sur la scène capturée pour éclaircir tel ou tel point, comme on le ferait avec un bénévole humain. Lors d'un de nos essais, l'assistant s'est trompé quand il s'agissait de savoir si le stylo capturé avait un bouchon ou non. C'est pour ce genre d'imprécision que By My AI est toujours présentée comme une « bêta ouverte », qu'elle est accompagnée d'un message d'avertissement (il est déconseillé de l'utiliser pour des actions ou des données sensibles) et qu'il reste possible d'appeler facilement un volontaire en chair et en os.

Le temps de traitement relativement long (une dizaine de secondes en moyenne) et la consommation de ressources sur iPhone assez élevée (même si l'analyse est effectuée en ligne) sont deux autres bémols, mais Tristan les pardonne sans peine au vu de l'efficacité de l'analyse. La gestion des données peut être aussi considérée comme un écueil dans certains cas : les photos prises avec Be My AI peuvent être stockées par le fournisseur du service (OpenAI) et exploitées pour entraîner sa technologie d'intelligence artificielle. Be My Eyes n'en fait pas mystère en déconseillant son utilisation pour des informations sensibles.

Depuis iOS 16, Apple propose sa propre solution de reconnaissance de l'environnement qui n'a pas ces défauts. La fonction de description associée à la Loupe est exécutée en local pour une analyse immédiate (pas besoin de prendre de photo, la description s'affiche quasi instantanément) et privée. La contrepartie, c'est que la description est très sommaire : quand la fonction native d'iOS se contente de lister les objets présents, Be My AI détaille à quoi ils ressemblent et comment ils sont répartis dans l'espace. « Les deux solutions sont en fait complémentaires », résume Tristan.

Fonction de description de l'environnement intégrée à iOS / Be My AI

Be My AI est gratuit durant cette phase de bêta et le restera normalement à l'avenir. L'éditeur prévient néanmoins que si le contrat avec son partenaire devait prendre fin, il devrait envisager d'autres options. OpenAI fait habituellement payer GPT-4V, mais les deux acteurs ont sûrement trouvé un accord spécial permettant à Be My Eyes d'en profiter gratuitement en échange des données de ses utilisateurs.

Alors que Microsoft a intégré ce mois-ci Be My AI à son centre d'assistance dédié aux personnes handicapées, Tristan imagine déjà d'autres usages avec GPT-4V, comme la création d'audiodescriptions pour les films qui restent trop rares : « Netflix a commencé à produire des descriptions avec des voix synthétiques qui lui permettent de rédiger le texte puis de le traduire correctement dans chaque langue sans avoir recours à des comédiens, mais tellement reste à faire qu'un petit coup de main de l'IA serait bienvenu. »

Rejoignez le Club iGen

Soutenez le travail d'une rédaction indépendante.

Rejoignez la plus grande communauté Apple francophone !

S'abonner

B&You réduit le prix de son forfait avec 200 Go de 5G pour les abonnés B&You Pure fibre

11:46

• 3


Les iPhone des Apple Store vont se recharger avec de l'énergie bas carbone

10:30

• 0


Google Maps va désactiver les avis sur les établissements scolaires à la fin du mois

09:51

• 24


Promo : la carte Amazon Basics Micro SD 256 Go à 21,26 €

09:07

• 6


Apple vante les mérites de ses MacBook, avec leur écran nano-texturé et leur autonomie incroyable

08:51

• 19


Promo : l'Apple Watch Ultra 2 en titane noir à 799 € (-100 €)

08:33

• 4


Le prochain Apple Vision serait plus léger, et sortirait en plusieurs couleurs

08:33

• 19


iOS 18.4.1 et macOS 15.4.1 bouchent d'importantes failles de sécurité

08:00

• 9


Meta a désactivé Apple Intelligence dans ses apps pour iOS

07:44

• 44


Les apps d’Apple ne sont plus imposées sur iPhone : voici les alternatives que vous pouvez définir par défaut

16/04/2025 à 23:30

• 49


iPhone 16 Pro Max : pourquoi la protection signée Noreve fait toute la différence 📍

16/04/2025 à 22:08

• 0


iOS/iPadOS 18.4.1 et tvOS 18.4.1 sont de sortie

16/04/2025 à 19:47

• 17


Après plus de 3 heures de pannes, Spotify est de retour ! 🆕

16/04/2025 à 18:21

• 34


Les produits Apple sont maintenant « Conçus pour Apple Intelligence »… même aux États-Unis

16/04/2025 à 16:30

• 18


Un trailer pour Marathon, qui ne sortira pas sur les Mac

16/04/2025 à 13:15

• 24


Promo : déjà 10 % de remise sur l’iPad Pro M4 et l'iPad Air M3 (à partir de 649,99 €) 🆕

16/04/2025 à 12:09

• 7