Au mois d'avril, Apple a déployé une nouvelle fonction de floutage des photos sexuellement explicites dans plusieurs pays. Celle-ci permet d'anticiper les cas de harcèlement ou les tentatives d'extorsion de selfies dénudés de mineurs en floutant les photos et en affichant des panneaux de prévention. À l'avenir, Cupertino prévoit d'étendre sa technologie au-delà de Messages et de l'intégrer à ses autres applications de communication. Elle souhaite aussi la proposer aux développeurs tiers.
Dans un communiqué envoyé à Wired, Apple explique plancher sur la capacité de détecter la nudité dans les vidéos partagées via Messages. Comme pour les photos, cette fonction ne sera active que pour les mineurs et devra être activée dans le cadre d'un partage familial.
Sur le long terme, l'objectif d'Apple est de permettre aux développeurs tiers d'intégrer cette technologie dans leurs propres apps. Cupertino explique que la popularisation de ces outils permet de limiter la mise en ligne de nouveaux contenus pédopornographiques :
Une potentielle exploitation des enfants peut être interrompue avant qu'elle ne se produise en fournissant aux parents des outils opt-in pour les aider à protéger leurs enfants des communications dangereuses. Apple s'engage à développer des solutions innovantes de préservation de la vie privée pour lutter contre le CSAM (Child Sexual Abuse Material) et protéger les enfants, tout en répondant aux besoins uniques de confidentialité des communications personnelles et du stockage des données.
L'entreprise a précisé ne pas s'avancer pour l'instant sur une date de sortie pour ces deux nouveautés. Hier soir, elle a également annoncé avoir abandonné l'idée de détecter les images pédopornographiques contenues dans les bibliothèques de photos sur ses appareils. La mesure avait fortement inquiété les experts en sécurité et défenseurs des libertés lors de son annonce, poussant Cupertino à faire machine arrière.