Ça n'a pas loupé. Le projet de lutte contre la pédopornographie en ligne présenté le 11 mai par la Commission européenne suscite une vive opposition de la part des experts en cybersécurité et des défenseurs des libertés numériques.
L'une des mesures phares du projet est une nouvelle obligation de détection de contenus répréhensibles pour les propriétaires des messageries, telles que WhatsApp, iMessage et Messenger. Quand les entreprises recevront une « injonction de détection » de la part d'une autorité nationale, elles devront scanner les messages des utilisateurs concernés à la recherche d'éventuelles images pédopornographiques ou de tout autre contenu relatif à des fins de sollicitation d'enfants.
Bien que la Commission européenne prévoit que ces injonctions soient limitées dans le temps et qu'elle laisse aux propriétaires des messageries le choix des technologies pour la détection, le plan est critiqué vertement par l'Electronic Frontier Foundation, qui y voit un « système de surveillance massive » en puissance. « Les nouvelles demandes de la Commission exigeraient un accès aux messages privés non chiffrés des utilisateurs. […] La nouvelle proposition législative brasse trop large, est non proportionnée et porte atteinte à la vie privée et à la sécurité de chacun », déclare l'association de protection des libertés numériques.
Matthew Green, professeur en cryptographie à l'université Johns-Hopkins, qualifie carrément le projet « de document le plus terrifiant [qu'il ait] jamais vu. » Sa récrimination la plus importante porte sur le fait que l'UE ne prévoit pas seulement de faire détecter des images pédopornographiques, mais aussi des sollicitations d'enfants (« pédopiégeage »). Il anticipe la mise en place d'algorithmes qui devraient lire les messages pour trouver d'éventuels traquenards visant des enfants dans les conversations menées. Autrement dit, ce serait le chiffrement de bout en bout des messages qui serait menacé, même si l'UE soutient l'inverse.
Le projet de la Commission diffère du système anti-pédopornographie qu'Apple avait envisagé l'année dernière : Apple prévoyait de scanner la photothèque iCloud de ses utilisateurs à la recherche de photos d'abus sexuels d'enfants déjà connues, ce qui limitait les possibilités de faux positifs. Face aux inquiétudes sur la confidentialité des données privées des utilisateurs, Apple a reporté sine die ce système.
La mise en œuvre du plan de l'Union européenne n'est pas pour tout de suite. Il doit passer par tout le parcours législatif habituel, durant lequel il peut être amendé.