Ouvrir le menu principal

iGeneration

Recherche

Test de l’appareil photo de l’iPhone XS

Anthony Nelzin-Santos

mardi 25 septembre 2018 à 20:00 • 89

iPhone

Au premier coup d’œil, l’iPhone XS ressemble à l’iPhone X comme deux gouttes d’eau. Au premier coup d’œil seulement. Comme nombre de modèles « S » avant lui, il se distingue par sa fiche technique, notamment en matière d’imagerie. Montée en définition, agrandissement du capteur, perfectionnement de l’optique, stabilisation du bloc… les « années S » sont des années de progrès photographiques.

C’est encore le cas cette année : l’iPhone XS intègre un nouveau capteur et une nouvelle optique. Mais l’appareil photo n’est plus un composant isolé — il fait partie d’une chaîne de puces et de logiciels, dont les caractéristiques importent autant, si ce n’est plus, que celles du capteur. Or avec la puce Apple A12 Bionic et le Neural Engine de nouvelle génération, c’est toute la chaîne qui a été revue.

Encore aujourd’hui, l’iPhone X reste parmi les tout meilleurs « photophones » du marché. Pourtant, il fait pâle figure face à l’iPhone XS. En mariant le logiciel et le matériel, en entrant de plain-pied dans l’ère de la « photographie informatisée », Apple a franchi un cap. Explications en photos.

Un capteur plus grand

Commençons par cette photo sans grand intérêt esthétique, prise au même endroit avec les objectifs grand-angle d’un iPhone 8 Plus (à gauche) et d’un iPhone XS Max (à droite).

Comme toutes les photos de cet article, ces photos ont été prises avec l’application Appareil photo et n’ont pas été retouchées, mais seulement converties en JPEG depuis le format HEIF avec l’application Photos.

Le champ de vue de l’iPhone XS est plus étendu. Les données EXIF de la photo montrent qu’il possède une optique 4,25 mm, alors que l’iPhone 8 Plus possède une optique 3,99 mm. Comment une optique plus « longue » peut donner une photo plus « large » ? Avec un capteur plus grand — sauf qu’Apple, comme à son habitude, n’a pas détaillé les spécifications du capteur.

Il n’est pas difficile de les retrouver : les applications de traitement photographique donnent les distances focales équivalentes, 26 mm pour l’iPhone XS et 28 mm pour l’iPhone 8 Plus. Le grand-angle de l’iPhone XS est bien « plus grand-angle » que celui de l’iPhone 8 Plus, les choses rentrent dans l’ordre.

Une petite division nous donne le coefficient d’agrandissement : celui de l’iPhone 8 Plus (x7,02) correspond peu ou prou à celui d’un capteur 1/3", mais celui de l’iPhone XS (x6,12) rappelle plus le Super 8 qu’un format de capteur standard. Alors quoi ? Comme Apple parle d’un capteur 32 % plus grand et de photosites de 1,4 µm, elle utilise sans doute un capteur 1/2,3".

Les tailles des « petits » capteurs utilisés dans les smartphones et les appareils photo compacts.

Le grand-angle est plus grand-angle, le téléobjectif est… moins téléobjectif. Pour conserver un « zoom x2 », il doit passer à 52 mm, contre 57 mm sur l’iPhone 8 Plus. C’est bien le seul changement apporté à cette partie de l’appareil photo. Le téléobjectif reste comparativement moins lumineux que le grand-angle (ƒ/2,4 contre ƒ/1,8) et reste associé à un petit capteur 1/3,6" d’ancienne génération.

Le cadre du téléobjectif de l’iPhone XS Max (à droite) est légèrement moins serré que celui de l’iPhone 8 Plus (à gauche).

L’iPhone XR montre que ce deuxième capteur n’est pas absolument nécessaire, d’autant moins qu’il est régulièrement désactivé. On ne regrettera pas sa présence : il apporte des informations supplémentaires, améliore la qualité du zoom numérique, participe au mode Portrait. Mais il est difficile de continuer à s’enthousiasmer, quand on voit ce que Google sait faire avec un seul capteur, ou ce que d’autres font avec un deuxième capteur monochrome ou une deuxième optique très-grand-angle.

Des couleurs plus saturées

Ces deux premières photos vous ont peut-être mis la puce à l’oreille : l’iPhone XS accélère la tendance des dernières années en matière de réchauffement colorimétrique. Apple a rejoint le camp de Samsung, et privilégie un traitement flatteur des couleurs, alors que Google s’en tient à une interprétation plus neutre. Cette tendance touche tout le spectre, comme le montrent les photos suivantes.

Non seulement le rouge de la borne est plus saturé et lumineux sur la photo prise avec l’iPhone XS Max (à droite), mais le gris du bitume et les tons ocre des briques sont plus chauds.
La différence de traitement est encore plus marquée dans les tons verts. À côté de l’iPhone XS Max (à droite), l’iPhone 8 Plus semble bien palichon.
Le bleu, enfin. Dans cet exemple extrême, les nuages semblent virer au vert sur l’iPhone XS Max (à droite), un choix reproduit tout au long de cette sortie photo. De manière générale, on dirait que le bleu est utilisé comme une variable d’ajustement de la colorimétrie générale, avec des résultats variés d’une image à l’autre.

Faut-il s’en plaindre ? Difficile de le dire : dans les précédents exemples, l’iPhone XS nous semble mieux retranscrire la profondeur de la verdure et la chaleur des briques, mais l’iPhone 8 capte mieux le ciel orageux. Cette comparaison directe accentue la différence de traitement — au quotidien, elle n’est pas toujours aussi tranchée.

Un exemple plus subtil, qui montre l’intérêt des choix effectués par Apple. L’iPhone XS (à droite) expose globalement mieux la photo que l’iPhone X (à gauche), et le plus fort contraste entre le vert de l’arbre et le rouge de la sculpture améliore grandement la lisibilité de l’image.

Apple n’a pas fait ce choix au hasard : sur l’écran OLED de l’iPhone XS, qui prend en charge l’espace colorimétrique étendu P3, les photos sont vibrantes et lumineuses. Plus qu’une question technique, il s’agira d’une question de goût. Certains trouveront ce traitement flatteur et naturel, d’autres le trouveront complaisant et artificiel.

Un dynamique Smart HDR

Regardez le ciel de la première photo de cet article, ou le coin gauche de la précédente. Alors que les tons les plus clairs ne sont pas loin d’être « cramés » sur les anciens iPhone, ils restent colorés sur l’iPhone XS. Grâce à des photosites plus « profonds », capables de capter jusqu’à 50 % de lumière en plus, et une électronique améliorée, le nouveau capteur possède une meilleure dynamique1.

L’iPhone XS ne captera pas le souvenir du bleu dans un ciel laiteux et se laissera éblouir par un spot de chantier, mais sera capable de capter les détails d’une enseigne lumineuse ou de révéler les secrets d’un couloir obscur. Là où les iPhone 8 et X ratent la photo s’ils ne passent pas en mode HDR, et parfois même s’ils passent en mode HDR, l’iPhone XS prend une photo « normale ».

Dans cette scène typiquement bretonne, l’iPhone X (à gauche) doit passer en HDR pour préserver le peu de bleu paraissant au milieu des nuages, contrairement à l’iPhone XS Max. Remarquez, une nouvelle fois, le bleu froid produit par l’iPhone XS Max, une impression renforcée par la chaleur des pavés et des murs.

Les guillemets sont de rigueur : les seules capacités du capteur ne parviennent pas à expliquer certaines différences à peine croyables. Grâce au processeur A12 et au Neural Engine, Apple peut jouer avec le flux de données provenant du capteur pour composer et recomposer des images. À chaque fois que vous appuyez sur le déclencheur, l’iPhone XS prend jusqu’à neuf photos successives, et réalise des milliards d’opérations pour assurer le meilleur résultat.

Non, la photo issue de l’iPhone XS (à droite) n’a pas « officiellement » été prise en mode HDR. La différence est pourtant immense : pour exposer correctement le premier plan, l’iPhone X doit « cramer » l’arrière-plan.

Le téléphone est autant photographe que vous, vous ne maîtrisez pas l’ensemble des paramètres, le logiciel et le matériel font des choix à votre place. Comme celui de décider que telle photo mérite le label « HDR », et pas une autre, alors qu’elles sont toutes produites par fusion de multiples expositions.

L’un des rares cas où l’iPhone XS applique clairement le label « HDR » à une photo, tant le traitement est poussé, sans toutefois être extrême (à droite). Les vitraux sont à peine lisibles sur la photo prise avec l’iPhone 7, qui plonge l’autel dans le noir. Le traitement effectué sur l’iPhone XS n’est pas discret, mais il permet d’obtenir une photo exploitable.
Un autre exemple, plus banal et moins spectaculaire, des bénéfices du Smart HDR. En bas de l’escalier, les hautes lumières sont cramées avec l’iPhone X (à gauche), alors même que la descente est sombre. Avec l’iPhone XS Max, non seulement les ombres sont plus douces, mais les hautes lumières sont maîtrisées, et la plante se distingue mieux.
Un extrait des mêmes images, à 100 %. L’iPhone X déclenche à 1/6 s, en se reposant sur la stabilisation optique pour assurer une image nette, et conserve donc la sensibilité à ISO 80 (à gauche). L’iPhone XS Max doit déclencher à 1/25 s, pour faciliter la fusion des différents clichés, et doit donc monter à ISO 400 (à droite). Conséquence logique : la photo prise par l’iPhone XS Max est considérablement plus bruitée. Apple applique toujours un filtre de réduction du bruit assez agressif, qui affecte d’abord les détails puis les couleurs, et participe à l’apparence pointilliste de certains clichés. D’autres font beaucoup mieux sur ce plan, même avec des capteurs plus petits.

Vous voulez seulement prendre une photo au débotté ? Ces automatismes vous sauveront la mise. Vous voulez prendre le temps de composer une photo ? Ces automatismes vous mettront des bâtons dans les roues. Le logiciel veut corriger toutes les erreurs, mêmes quand elles sont intentionnelles. Ainsi, il est beaucoup plus difficile de réaliser des silhouettes, puisque le Smart HDR veut éviter de boucher les ombres, ou de « noyer » un sujet en contre-jour, puisqu’il veut éviter de cramer les hautes lumières.

Avec l’iPhone XS Max, les arbres restent clairement visibles au premier plan. Sauf à reprendre le contrôle manuel du mode HDR, il faut penser à utiliser la compensation ou le verrouillage d’exposition pour boucher les ombres et préserver le reste du cadre, ou bien passer par la case retouche.

Et puis tout « Smart » soit-il, le mode HDR n’est pas toujours pertinent. L’iPhone XS décide parfois de pousser les traitements dans des situations qui ne devraient pas poser de problème particulier, ce qui n’est pas particulièrement grave, mais aplatit quelque peu les photos, en compressant la dynamique. Surtout, il fait parfois plus de mal que de bien, comme dans l’exemple suivant, certes plutôt rare.

À vouloir préserver les ombres, le mode Smart HDR de l’iPhone XS Max accentue les aberrations provoquées par le soleil rasant (à droite). La photo prise par l’iPhone X, là aussi en mode HDR, est plus plaisante. Heureusement, ce genre de problèmes est plutôt rare.

Des portraits

Pour être tout à fait complet, il faut enfin parler du mode Portrait, qui repose désormais sur une notion d’ouverture virtuelle. Dans la plupart des cas, Apple simule le flou de profondeur d’un objectif ouvrant à ƒ/4,5 (devant un capteur APS-C ? Un capteur plein format ? Allez savoir !). Après coup, ce flou peut être renforcé pour correspondre à celui d’un caillou ouvrant à ƒ/1,4, ou diminué comme si l’on fermait à ƒ/16.

Bien sûr que cette fonction tient du gadget. Mais vous savez quoi ? Un gadget peut en dire long. La simulation de l’ouverture montre les progrès constants du mode Portrait. S’il trébuche toujours sur les mèches volantes ou les branches de lunettes, il n’est plus effrayé par les boucles et les bijoux. Surtout, en faisant varier le curseur d’ouverture virtuelle, on voit comment le flou est appliqué non pas seulement à l’arrière-plan, mais aussi à l’avant-plan.

Le visage n’est plus découpé à l’emporte-pièce sur le fond, mais graduellement flouté. À ƒ/1,4, quelques centimètres seulement sont nets, comme ils le seraient si l’on avait pris la photo avec un boîtier professionnel. C’est encore un flou trop parfait, sans les imperfections et les bokeh balls qui font le charme de certains cailloux d’exception, mais cela commence à devenir franchement impressionnant.

Et oui, cela fonctionne toujours avec les chats. iPhone X à gauche, iPhone XS à droite.

Et cela veut dire qu’à travers le logiciel, une optique physique ƒ/1,8 devient une optique logicielle ƒ/1,4. On ne parle bien sûr que des caractéristiques du flou de profondeur — aucun logiciel ne fera rentrer plus de lumière dans le boîtier. Mais cette fonction contribue à nous faire entrer dans un monde où l’on ne voit plus où s’arrête le logiciel et où commence le matériel. La photographie numérique sera — elle l’est encore à peine — le véritable produit de la vision du capteur, du traitement du processeur, de l’interprétation des algorithmes.

Comme Apple, Google mise à fond sur le traitement logiciel réalisé en local sur ses Pixel. Et si les fabricants traditionnels semblent faire du surplace depuis des années, c’est que leurs processeurs sont cruellement moins rapides que les puces conçues à Cupertino. Google produit parmi les tout meilleurs photophones, les boîtiers reflex ont encore de beaux jours devant eux : l’approche d’Apple n’est pas nécessairement meilleure, mais elle continue à distinguer clairement l’iPhone des autres appareils photo.

  1. Autres différences, toujours sur le « grand » capteur de l'objectif grand-angle : la durée maximale d'exposition passe à une seconde (contre 1/3 s auparavant) et la sensibilité maximale grimpe à ISO 2304 (contre ISO 2112). ↩︎
illustration magazine 25 ans

MacGeneration a 25 ans !

Participez à la fête et découvrez l’histoire de votre site favori en précommandant notre magazine exclusif.

Je précommande le magazine