You are currently viewing Reconnaissance faciale : quand la police surveille

En novembre dernier, le site web d’investigation Disclose révélait une enquête sur la police française. Selon le média à but non lucratif, la police utilise de manière illégale un logiciel de surveillance et de reconnaissance faciale, et ce, depuis 2015. Cette nouvelle a considérablement effrayé l’opinion publique, la CNIL a été saisie et une enquête a été ouverte par le ministère de l’Intérieur. 

  • Briefcam, le logiciel israélien de reconnaissance faciale  

Généralement, la vidéosurveillance des villes est assurée par les centres de supervision urbains (CSU) où des agents physiques scannent en permanence l’espace public pour s’assurer de l’absence de comportements suspects. L’objectif de cette vidéosurveillance est d’être un « dispositif de dissuasion, de prévention des atteintes à la sécurité des personnes et des biens, et de flagrants-délits ». Les chiffres de la ville de Nice sur leur CSU sont édifiants : 

    • 2000 réquisitions judiciaires par an liées au CSU 
    • 90 agents se relayant toute la journée, tous les jours
    • 3 salles équipées de 90 écrans ainsi qu’une salle d’extraction vidéo
    • 4000 caméras dans la ville (dont une devant chaque établissement scolaire) 
    • Des caméras à plusieurs objectifs, en haute définition, à 360°, connectées en wifi 
    • 1 400 boîtiers d’alerte reliés au CSU
    • 244 bornes d’appel d’urgence reliées au CSU
    • 108 dispositifs de diffusion sonore

Le logiciel en question ici, développé par la société Briefcam elle-même détenue par Canon, se base sur l’intelligence artificielle et plus précisément le deep learning. Effectivement, l’algorithme analyse en amont d’immenses quantités de données afin d’être en mesure de pouvoir détecter, traquer, extraire, classifier et alerter sur des reconnaissances faciales. En ce sens, l’algorithme fera ensuite des corrélations avec les bases de données utilisées en interne par les services de police, permettant au final de fournir un pourcentage de similitudes. Cette donnée sera alors vérifiée par un agent. 

En l’occurrence, la société Briefcam a pu vendre son outil à plusieurs municipalités françaises. Selon Florian Leibovici, le directeur marketing européen de Briefcam, ce sont plus de 100 municipalités françaises qui sont désormais équipées de ce logiciel. 

L’objectif de cette vidéosurveillance algorithmique est bien de pouvoir effectuer toutes les tâches du CSU, à l’aide de l’intelligence artificielle. En effet, le logiciel sera en mesure de détecter les mouvements suspects et d’en avertir les agents. Dès lors, le travail du CSU serait automatisé et permettrait une réactivité plus rapide et donc une meilleure sécurité. 

Toutefois, de sérieuses questions se posent quant à la légalité de ce logiciel. 

  • Une révélation choc 

L’utilisation de la vidéosurveillance n’est pas illégale en France, mais celle de la reconnaissance faciale est formellement interdite. Effectivement, c’est la loi informatique et libertés qui le prévoit en son article 6 : « Il est interdit (…) de traiter des données génétiques, des données biométriques aux fins d’identifier une personne physique ». Quant à lui, le RGPD le prévoit aussi en son article 9. 

Selon le député Renaissance Philippe Latombe, il y a quatre scénarios possibles de l’utilisation faite par la police du logiciel Briefcam : 

  • Utilisation du logiciel sans recours aux données biométriques et avec l’aval d’un juge. Ceci serait, d’un point de vue légal, parfaitement toléré. 
  • Utilisation de la reconnaissance faciale pour des recherches spécifiques d’individus avec l’aval d’un juge. Ceci serait toléré, bien qu’il n’y ait pas de base légale précise. 
  • Utilisation massive de la reconnaissance faciale à toute la population, avec aval du juge. Ceci constituerait une violation du droit français ainsi que du droit européen. 
  • Utilisation massive de la reconnaissance faciale à toute la population, sans aval du juge. Ceci constituerait une violation absolument majeure du droit français et européen. 

Il semblerait que l’utilisation la plus probable qui a été faite par les municipalités et les forces de l’ordre soit la deuxième. Par ailleurs, il est à noter qu’à l’approche des Jeux olympiques, un assouplissement a été mis en place avec la loi du 19 mai 2023. Cette loi permet, en son article 10, une plus grande flexibilité en autorisant les expérimentations de vidéosurveillance jusqu’en mars 2025. Toutefois, ces dernières se doivent de n’utiliser « aucun système d’identification biométrique » et de n’utiliser « aucune technique de reconnaissance faciale ». 

De ce fait, ces révélations par Disclose ont fait ressurgir de nombreuses questions quant à la régulation de l’intelligence artificielle et de l’absence d’agence responsable de sa gestion. Par conséquent, plusieurs plaintes ont été déposées. 

  • Des réactions variées 

En réponse à cet article, la CNIL a annoncé avoir ouvert une enquête dès novembre 2023. Sur ce point, elle avait déjà précisé en juillet 2022 que l’utilisation de ces logiciels représente « des risques pour les droits et libertés fondamentaux des personnes et la préservation de leur anonymat dans l’espace public ». 

De plus, des procédures de « référé liberté » ont été déposées par des collectifs rassemblant la Ligue des droits de l’homme, le Syndicat de la magistrature, l’Union syndicale Solidaires et l’Association de défense des libertés constitutionnelles.  

Le tribunal administratif de Caen a sommé les autorités d’effacer les données sensibles permettant d’identifier des individus tandis que le tribunal de Nice a relaxé la ville pour une absence d’utilisation récente du logiciel. Par ailleurs, le tribunal de Lille a permis à la ville de Roubaix d’utiliser le logiciel de Briefcam pourvu que les autorités ne recourent pas à la reconnaissance faciale. 

Il reste encore à attendre les conclusions de l’enquête menée par la CNIL contre le ministère de l’Intérieur. Par ailleurs, l’entrée en vigueur de l’IA Act au niveau de l’Union Européenne apportera des précisions et des interdictions en la matière. La reconnaissance faciale ayant recours à l’IA sera vue comme présentant un risque élevé et sera donc réservée à des cas de poursuites précis. 

 

Léonard Simoens
M2 Cyberjustice – Promotion 2023/2024

 

Sources : 

 

A propos de Léonard SIMOENS

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.