Apple pourrait introduire dans iOS 15.2 un des mĂ©canismes de protection de l'enfance annoncĂ©s cet Ă©tĂ© : le code de la premiĂšre bĂȘta contient des rĂ©fĂ©rences Ă Communication Safety, qui floute les images licencieuses partagĂ©es dans Messages et prĂ©vient les enfants et les parents que des photos sexuellement sans Ă©quivoque ont Ă©tĂ© envoyĂ©es ou reçues.

C'est une fonction destinée aux utilisateurs d'iPhone, d'iPad ou de Mac de moins de 17 ans inscrits dans le partage familial d'iOS. Le traitement est réalisé en local, sur l'appareil donc. Les images sont certes transférées sur les serveurs d'Apple, mais comme pour le reste des conversations, elles sont chiffrées de bout en bout et le constructeur ne peut pas les lire. C'est donc l'appareil qui analyse les images, détermine si elles sont à connotation sexuelle, et les masque au besoin.
Par ailleurs, l'envoi de notifications aux parents est automatique lorsque l'enfant est ĂągĂ© de 12 ans et moins. Pour les enfants de 13 Ă 17 ans, il n'y aura pas de notification. Selon les dĂ©couvertes de Steve Moser relayĂ©es par MacRumors, iOS 15.2 contient des messages d'alerte en lien avec cette fonction : « PrĂ©viens un adulte en qui tu as confiance », « Ce n'est pas ta faute mais les photos explicites peuvent faire du mal », « Partager des photos de nus de personnes de moins de 18 ans peut avoir des consĂ©quences lĂ©gales »âŠ
Ce systĂšme de floutage et de notification a fait polĂ©mique cet Ă©tĂ© lors de son annonce, mais moins que l'autre mesure qu'Apple voulait mettre en place en parallĂšle : un mĂ©canisme de vĂ©rification des photos Ă caractĂšre pĂ©dopornographique (CSAM pour Child Sexual Abuse Material) sur les terminaux, accompagnĂ© d'un traitement supplĂ©mentaire sur les serveurs d'Apple le cas Ă©chĂ©ant. Cette derniĂšre mesure a provoquĂ© un tel tollĂ© que le constructeur en a repoussĂ© la mise en Ćuvre.

L'Ă©tĂ© oĂč l'iPhone est devenu une passoire de sĂ©curitĂ© qui vous flique
On verra comment Ă©volueront les travaux pour cette fonction de Messages, qui ne devrait ĂȘtre lancĂ©e qu'aux Ătats-Unis. Et peut-ĂȘtre que cela donnera l'occasion Ă Apple de communiquer sur la dĂ©tection CSAM qui elle, est toujours dans les limbes.
Mise Ă jour â Apple a prĂ©venu que Communication Safety ne sera pas implĂ©mentĂ© dans iOS 15.2, du moins pas de cette maniĂšre.