Le 5 août 2021, Apple a déclaré la mise en place d’un nouvel outil du nom de “NeutralMatch” ayant pour but de détecter les contenus pédopornographiques. Cette mise à jour prévoyait le recours à l’intelligence artificielle afin de scanner les photos stockées localement sur les smartphones et tablettes commercialisés par la marque.
Si les géants du cloud comme Google, Dropbox, OneDrive, Microsoft et Google contrôlent d’ores et déjà les contenus stockés sur leurs serveurs, cet outil est une étape supplémentaire dans la surveillance puisque tous les clichés de l’utilisateur seront analysés. Pour préserver autant que possible la vie privée des utilisateurs, l’algorithme ne doit pas sauvegarder les images et se contenter de convertir chaque fichier en un identifiant numérique. Celui-ci sera ensuite comparé aux images fournies par le NCEM (National Center for Missing and Exploited Children) afin de détecter une éventuelle correspondance. Le cas échéant, les clichés sont transmis à une personne physique salariée de l’entreprise Apple afin qu’une vérification soit opérée. Si la présence de photos illégales est constatée, le compte du détenteur est bloqué et les forces de l’ordre averties.
Selon Erik Neuenschwander, responsable des questions de protection de la vie privée chez Apple, ce garde-fou permet au dispositif de ne pas être intrusif et de respecter la vie privée des utilisateurs.
« Si vous stockez une collection de photos d’abus d’enfants, vous aurez des problèmes, mais pour les autres, ça ne changera absolument rien ».
Ce dispositif répond à la problématique soulevée par une enquête du New York Times en 2019 selon laquelle la lutte contre la pédopornographie est lacunaire au sein des plateformes Internet. C’est particulièrement le cas s’agissant d’Apple, accusée de sous-évaluation des contenus circulant grâce à ses services, en témoigne le fait que, là où Facebook a signalé 15,8 millions de contenus pédopornographiques en 2019, Apple n’en a signalé que 205.
Toutefois, selon l’ONG américaine Electronic Frontier Foundation (EEF), cet algorithme pourrait être détourné à plusieurs fins comme celle de la surveillance de masse par exemple. Par exemple, « les gouvernements, y compris celui des États-Unis, vont inévitablement demander à Apple d’adapter ce dispositif à la lutte contre le terrorisme. Et on sait à quel point cette notion peut avoir des sens différents d’un pays à un autre » souligne David Thiel, directeur technique de l’Observatoire de l’Internet de Stanford. En effet, ce prétexte a notamment été utilisé par la Chine lors de sa politique répressive à l’encontre de la minorité Ouïghour.
Face à cette critique, Apple assure refuser toute demande gouvernementale tendant à étendre le système de détection mis en place, ce qui n’a pas empêché le collectif Fight for the future d’organiser plusieurs manifestations dans de grandes villes américaines telles que New-York, Washington ou San Francisco.
Face aux critiques de spécialistes et défenseurs des libertés comme Edward Snowden ainsi qu’à la pétition lancée par l’EEF qui a réuni plus de 25 000 signatures, l’entreprise à la pomme a décidé de reporter la mise en œuvre de ce système afin de « recueillir des commentaires et apporter des améliorations avant de publier ces fonctionnalités de sécurité des enfants d’une importance cruciale ».
De plus, il est prévu plusieurs changements dans le système en lui-même. Par exemple, il serait nécessaire que celui-ci détecte 30 images de nature pédopornographiques sur un appareil avant de les soumettre à une évaluation humaine et de procéder à un éventuel signalement aux autorités compétentes. Ce nombre pourrait néanmoins diminuer au fil des améliorations apportées à l’intelligence artificielle. De plus, l’entreprise assure que la base de données servant à la détection des contenus recherchés sera la même pour tous les utilisateurs, quel que soit le pays dans lequel ils se trouvent.
Ainsi, bien que NeuralMatch soit notamment salué par le NCEM, principale organisation américaine de lutte contre l’exploitation des mineurs, il est aussi sujet à de nombreuses critiques et inquiétudes quant au respect de la vie privée des utilisateurs et aux potentielles dérives qu’il pourrait permettre.
Lola Esquirol
M2 Cyberjustice 2021-2022
Sources :