Deep Fusion sera la grosse nouveauté de la prochaine bêta d'iOS (iOS 13.2 ?). Cette fonction, qui a eu droit à une présentation en bonne et due forme par Phil Schiller durant le keynote, est censée améliorer encore davantage la qualité des clichés.
La technique est rudement compliquée à expliquer, alors accrochez-vous. Deep Fusion fusionne neuf expositions à l'échelle du pixel, dont huit qui ont été claquées avant même avoir appuyé sur le déclencheur : quatre courtes sous exposées aux détails mieux définies, quatre secondaires. La prise de vue principale a une exposition plus longue et légèrement surexposée, c'est elle qui permet de récupérer les détails dans les ombres.
Deep Fusion jongle donc avec l'exposition de référence, quatre photos moyennes qui permettent de récupérer des détails supplémentaires, et les quatre photos sous-exposées pour glaner les meilleurs pixels dans la structure de l'image.
Hop, un petit coup de machine learning mouliné par la puce A13, et une seconde plus tard (le temps du traitement), bim : voici une photo qui offre un niveau de détails encore plus élevé qu'en utilisant les capacités du HDR. Les images présentant des textures complexes (peau, vêtements…) devraient bénéficier tout particulièrement de ce traitement.
Sur l'iPhone 11, Deep Fusion va améliorer les photos réalisées avec le grand angle ; sur l'iPhone 11 Pro et 11 Pro Max, ce sont le téléobjectif et le grand angle qui en bénéficieront (mais pas l'ultra grand-angle). Les smartphones des générations précédentes en seront dispensés, il faut une puce A13 Bionic.
Le processus Deep Fusion est automatique, exception faite des photos avec le recadrage automatique, Deep Fusion n'étant pas compatible avec l'ultra grand-angle. Les Live Photos bénéficieront du traitement Deep Fusion. Bien sûr, on aura l'occasion d'y revenir dès qu'Apple aura lâché sa Valda (et après une aspirine ou deux).
Source : TechCrunch