Deux ans après sa présentation et dix mois après son abandon, le mécanisme de détection des contenus pédopornographiques proposé par Apple fait toujours parler de lui. Alors que le groupe Heat Initiative prévoit de lancer une campagne de protestation, accusant la firme de Cupertino de favoriser la diffusion « d’images identifiées de viols d’enfants sur iCloud », Apple s’est sentie obligée de justifier son apparent recul. Une posture défensive aussi rare que les enjeux sont importants.
Apple avait imaginé un complexe mécanisme d’encodage pour représenter les photographies sous la forme d’un identifiant numérique capable de résister au recadrage et aux retouches. Avant qu’une photographie ne soit synchronisée avec la photothèque iCloud, le système aurait comparé son identifiant à ceux des photographies de la base de contenu pédopornographique (CSAM) du National Center for Missing and Exploited Children (NCMEC), une ONG de lutte contre la traite des êtres humains associée aux autorités américaines.
En cas de correspondances répétées, Apple avait prévu un système de vérification manuelle pour écarter les erreurs et de signalement au NCMEC pour pénaliser les fautifs. La firme de Cupertino assurait que son système alliait protection de la confidentialité, puisque l’encodage des photographies aurait été réalisé sur les appareils, et protection des mineurs, puisque toutes les photographies transitant par iCloud auraient été analysées. À ceci près qu’elle avait oublié l’existence de l’effet d’un cliquet.
L’intégration au sein du système d’un mécanisme de vérification des photographies aurait probablement attiré la convoitise des vraies dictatures et des fausses démocraties à la recherche de contenus « subversifs ». Apple avait promis-juré-craché qu’elle ne l’aurait jamais permis, mais elle s’est toujours conformée à ses obligations légales, même lorsqu’elles s’opposent à la liberté d’expression ou à la liberté de la presse. Cette bonne intention préfigurait un enfer.
Thorn, l’organisation fondée par Demi Moore et Ashton Kutcher pour concevoir des solutions technologiques à l’exploitation sexuelle des enfants, avait salué le projet d’Apple. Son ancienne vice-présidente des affaires externes, Sarah Gardner, est maintenant à la pointe de la protestation contre son abandon. Dans un courrier électronique envoyé à Tim Cook, son groupe Heat Initiative dénonce un recul « décevant ».
Une fois n’est pas coutume, Apple est montée au créneau pour défendre sa position. Dans une déclaration à Wired, Erik Neuenschwander explique que « l’analyse des données privées de chaque utilisateur dans iCloud créerait de nouveaux vecteurs de menaces. » Au moment où les autorités britanniques exigent une porte dérobée dans les mécanismes de chiffrement bout-à-bout « pour protéger les enfants », Neuenschwander mentionne explicitement les messageries chiffrées et le « risque d’une pente glissante aux conséquences imprévisibles. »
« La recherche d’un type de contenu particulier pourrait ouvrir la voie à une surveillance de masse », poursuit-il en reprenant les arguments de ces anciens détracteurs, « nous avons conclu qu’en pratique, il est impossible d’implémenter [notre projet] sans mettre en péril la sécurité et la confidentialité de nos utilisateurs. » Apple préfère mettre l’accent sur des fonctionnalités plus généralistes et plus éducatives, comme le floutage préventif des photographies pornographiques dans le cadre de la « sécurité des communications ».
Photos, Messages : Apple dévoile de nouveaux mécanismes pour lutter contre la pédopornographie
Apple abandonne l'idée de scanner les photos pour détecter des images pédopornographiques