Apple semble avoir remisĂ© au fond d'un placard sa fonction de dĂ©tection d'images pĂ©dopornographiques dans la bibliothĂšque Photos d'iOS et iPadOS. Dans la page qui dĂ©taille les nouvelles mesures de protection des jeunes utilisateurs, cette fonction en particulier â une des trois annoncĂ©es au cours de l'Ă©tĂ© â a complĂštement disparu du descriptif.
PrĂ©cĂ©demment, la page indiquait que cette fonction d'analyse des images avant leur envoi dans la photothĂšque d'iCloud faisait l'objet d'un dĂ©veloppement plus approfondi avant son lancement (aux Ătats-Unis d'abord). Il s'agissait pour Apple de se donner du temps au vu des nombreuses critiques essuyĂ©es par son initiative.
Apple repousse ses mesures controversées de lutte contre la pédopornographie
Depuis la sortie d'iOS 15.2 cette page a Ă©tĂ© remaniĂ©e et expurgĂ©e de toute rĂ©fĂ©rence Ă cette fonction, mĂȘme Ă une date indĂ©terminĂ©e. Une modification qui a l'allure d'un enterrement pur et simple.
Apple a conservé deux fonctions qui sont inaugurées auprÚs du public américain : d'abord le floutage d'images de sujets supposément nus dans les échanges au sein de Messages, ensuite des ressources fournies par Siri, Spotlight et la recheche de Safari sur l'exploitation sexuelle de mineurs. Le planning pour un déploiement à l'internationnal reste inconnu.
Protection de l'enfance : la fonction de floutage des photos sexuellement explicites dans Messages apparait dans iOS 15.2 đ
Mise Ă jour 18h â Apple a peut-ĂȘtre retirĂ© les rĂ©fĂ©rences Ă la dĂ©tection des photos pĂ©dopornographiques dans le descriptif de son site consacrĂ© aux mesures de protection contre l'enfance, le constructeur n'a pas du tout enterrĂ© sa technologie. Il s'agit toujours d'un report, pas d'un abandon, a affirmĂ© une porte-parole Ă la presse US. Comme Apple l'avait expliquĂ© en septembre, il s'agit de prendre son temps pour prendre en compte les retours des spĂ©cialistes, des chercheurs et des groupes de dĂ©fense de la vie privĂ©e.
Source : MacRumors