Les forces de l’ordre française à l’heure du tout numérique : « La Police prédictive »


« Au nom de la division pré-crime du district fédéral de Colombia, je vous arrête pour le futur meurtre que vous alliez commettre aujourd’hui 22 avril à 8h 04 du matin. »

Cet extrait du film dystopique américain Minority Report fait mention du logiciel fictif Précrime.
Dans une société futuriste, ce logiciel couplé avec trois extra-lucides nommés précogs, a réussi à éradiquer le crime.
Ce constat ferait pâlir nombres de pays, un pays sans crime, une police 100% efficace, une sécurité assurée, une société protégée, une paix sociale avérée et ce à moindre coût.

La hausse de la criminalité depuis les années 70-80 a poussé les gouvernements à réformer leurs stratégies sécuritaires et donc à ne plus envisager les forces de l’ordre comme des acteurs réactifs au crime. Ce changement de paradigme s’opère au profit de forces de l’ordre pro-actives grâce à l’usage de nouvelles technologies, notamment par l’usage croissant des logiciels prédictifs, logiciel informatique chargé de la prédiction des crimes. En France, la notion d’analyse décisionnelle est préférée à celle de police prédictive.

Les objectifs de ce déploiement massif des logiciels au sein de police et de la gendarmerie sont multiples : baisse des coûts de fonctionnement, hausse de la productivité des effectifs.
Cet essor des algorithmes doit se comprendre dans une logique politique du tout sécuritaire notamment en raison des nombreuses menaces pesant sur les pays : menaces terroristes ou menaces de cyber-guerre et par l’essor des technologiques numériques au sein de nos sociétés.

Ces logiciels de prédiction viennent compléter un arsenal policier déjà conséquent énoncé au sein du Code de procédure pénale. À l’ère où la statistique est reine, l’algorithme serait devenu la nouvelle arme des policiers.



Quel cadre la France offre aux logiciels d’analyse décisionnelle ? 
Quels logiciels sont utilisés par les forces de l’ordre françaises ? 
Quels risques ces logiciels font peser sur les citoyens ? 

En France, le Code de procédure pénale et notamment ses articles 230-20 et suivants prévoient le cadre des logiciels d’analyse décisionnelle, les personnes titulaires d’accès à ces données personnelles ou encore la durée de leur conservation.
L’article 230-20 dispose « les services de la police nationale et de la gendarmerie nationale (…) peuvent mettre en œuvre, sous le contrôle de l’autorité judiciaire, des logiciels destinés à faciliter l’exploitation et le rapprochement d’informations sur les modes opératoires réunies par ces services au cours ».

Ces logiciels, en vertu de l’article 230-37 sont autorisés par décret en Conseil d’Etat, le traitement des données à caractère personnel stockées sur ces logiciels est effectué sous contrôle du procureur de la République comme l’énonce l’article 230-23

La France a la volonté de maîtriser l’algorithme s’en être dépendante de sociétés privées. Elle favorise les initiatives internes assurant une indépendance technologique à nos forces de police et des économies financières en évitant d’être tributaire des sociétés privées ainsi que de leur possible et coûteuse mises à jour.
Ces logiciels issus des forces de police ont un désavantage principal, les données qui y sont contenues ne sont que des données issues des forces de l’ordre or toutes les infractions ne font pas l’objet de plaintes ou de mains courantes.

Dès lors, en ne prenant pas en compte le chiffre noir de la criminalité les données sont biaisées. Le chef de département de l’observatoire national de la délinquance des réponses pénales s’alarmait de cette situation : « Les données du ministère de l’intérieur sont encore très perturbées et les chiffres de la police et de la gendarmerie ne reflètent pas la réalité de la délinquance mais une partie infime des faits, autrement dit des hausses importantes d’infractions constatées avec de nouveaux logiciels plus contraignants ne correspondent pas nécessairement à des hausses des passages à l’acte »

Ainsi, la fiabilité de ces outils est remise en cause, si on évalue la dangerosité en fonction de statistiques biaisées, le risque de se tromper est accru. De même, que ce soit les entreprises privées ou les forces de l’ordre, leur modèle ne sont pas transposables à toutes les infractions

Parmi les logiciels utilisés, le logiciel AnaCrim est un logiciel connu et ce depuis son usage dans l’affaire Grégory. Il a été développé par la société IBM et est utilisé par le Service central du renseignement criminel depuis près de dix ans, il permet une analyse des données utilisées par la police et la gendarmerie.
AnaCrim permet d’organiser et de visualiser les liens entre toutes les informations répertoriées dans une procédure judiciaire. L’objectif comme l’évoque le colonel Didier Berger, chef du Bureau des affaires criminelles est de « mettre en évidences les incohérences dans l’emploi du temps d’un témoin ou d’un mis en cause, des contradictions entre certains témoignages et les observations faites par les enquêteurs. Les analystes criminels ont ainsi minutieusement retranscris tous les éléments constatés par les enquêteurs sur le terrain ou les détails figurant dans une audition ».

Le logiciel Salvac est un autre logiciel d’analyse décisionnelle, il est utilisé par les officiers de police judiciaire de Nanterre. Ce logiciel a la particularité de lutter contre les crimes à caractère violant ou sexuel, d’ailleurs Salvac signifie « système d’analyse des liens de la violence associée aux crimes ». Salvac permet de rapprocher plusieurs affaires sur la base de données d’éléments d’enquête passées, élucidées ou non. La base de données de ce logiciel regroupe l’ensemble des informations recueillies dans la France entière. Depuis 2003, 14.000 affaires furent enregistrées sur le logiciel et permet d’orienter l’action de la police judiciaire. 


PredVol est un autre logiciel détenu par les forces de police, il a été lancé en septembre 2016. Il permet de lutter contre les vols de véhicules. Ce logiciel va, en cartographiant la ville, désigner des zones à risques selon une prévision hebdomadaire.
À cette fin, le logiciel dispose d’une base de données regroupant des informations sur cinq ans. Fin février, la police a réalisé un bilan sur le logiciel, il s’avère que les périmètres sont parfois trop grands et les calculs ont tendance « à faire ressortir toujours les mêmes spots, les mêmes points chauds aux même endroits ».

Nos sociétés tendent de plus en plus à devenir des sociétés de statistiques où les algorithmes et autres IA seraient rois. Pour certains, l’avenir ne serait pas à une police prédictive mais à un cumul de nouvelles technologies permettant d’optimiser l’action des forces de police. Alf Göransson, président du groupe suédois Securitas avait d’ailleurs déclaré à l’AFP : « La prochaine étape sera d’utiliser les données historiques et l’intelligence numérique pour dire qu’il est très probable qu’il y aura un cambriolage dans telle rue vendredi entre 16 et 18 heures. En pointant spécifiquement les caméras ou en envoyant une patrouille, vous aurez réduit la criminalité de 30 %. »

    Les algorithmes prédictifs sont régulièrement contestés, leur efficacité est difficile à établir. Les logiciels envisagent le taux de criminalité comme un taux qui leur permet d’apprécier l’efficacité de leur technologie.
Au regard des possibles dérives mais aussi de leurs usages sécuritaires des gardes-fou doivent être mis en place. Le Règlement général sur la protection des données entré en vigueur le 25 mai 2018 offre un cadre nouveau aux données qu’elles soient personnelles ou non, il permet d’instaurer de réels contrôles et donne compétence à des autorités dédiées.

Les logiciels prédictifs entrent dans le cadre de cette directive car elles traitent de données pouvant être personnelles. Les forces de l’ordre peuvent recueillir des données personnelles durant des enquêtes de flagrances, des enquêtes préliminaires, des investigations ou encore des perquisitions.
En cas de manquement, en France, la CNIL : la Commission nationale de l’informatique et des libertés, va jouer le rôle d’autorité de contrôle et de sanctions  de ces logiciels en cas de dérives liées aux données personnelles. 

Ces logiciels prédictifs en plus de nous questionner sur leurs efficacités, leurs intérêts ou leurs régulations, nous interroge aussi sur la trajectoire que les États souhaitent donner à leur société.
Par exemple, la Chine a fait le choix du tout-sécuritaire voire de l’intrusion dans la vie privée des citoyens chinois. Dès 2020, la Chine va mettre en place un système de notation des citoyens : une « note sociale », visant à interdire la sortie du territoire à tout citoyen ayant une « mauvaise note ».
De plus, les États peuvent avoir de grandes ambitions dans le domaine numérique mais il faudra tout de même accorder les moyens de leurs prétentions. Cela passera principalement par les moyens qui seront alloués à ces recherches et développements.



Manon DANSAC
Master 2 Cyberjustice – promotion 2018-2019

Laisser un commentaire