Le vendredi 27 mars 2020 un décret est adopté au Parlement, permettant la mise en place par le ministère de la Justice d’un algorithme – à savoir un traitement automatisé de données à caractère personnel – à des fins d’évaluation des préjudices corporels dans les cadres de responsabilité civile et administrative. Ce projet qui devait durer deux ans, a finalement pris fin brutalement le jeudi 13 janvier 2022.
Du projet à l’échec
Pour remettre la situation dans son contexte il faut revenir à la genèse de DataJust. Cet algorithme avait un double objectif : à savoir l’aide à l’évaluation des dommages corporels subis par le biais d’un référentiel, et par ricochet, une aide à la décision pour l’évaluation des préjudices par le juge.
Au vu de l’importante quantité de données concernées et malgré les limites imposées par le décret en termes de conservation – à savoir deux ans à compter de la publication dudit décret –, des associations se sont interposées. Parmi elle, la Quadrature du Net, a saisi le juge administratif de la question.
En effet, l’association qui promeut les droits et libertés sur internet depuis 2008, a saisi d’un recours en excès de pouvoir la plus haute juridiction administrative afin de faire annuler le décret du 27 mars 2020, et ainsi, DataJust.
Si ce projet semblait ambitieux, le Conseil d’Etat a rejeté sa requête le 30 décembre 2020[1]. A noter qu’il ressort de l’arrêt que l’algorithme répondait à « une nécessité justifiée par des motifs d’intérêt public importants » concernant la collecte des données de santé. Il légitime d’ailleurs la conformité du traitement automatisé en invoquant le pseudonymat employé au cours de la collecte des données.
C’était sans compter un retournement de situation en date du 13 janvier 2022 par le ministère qui retire finalement lui-même son projet.
Les raisons d’un arrêt brutal
Pourtant validé par le Conseil d’Etat, l’algorithme a été abandonné largement avant les deux années d’expérimentation initialement prévues.
Si la controverse parmi les praticiens du droit au sujet de l’existence même de l’algorithme pouvait déjà remettre en question la nécessité de la mise en place d’un tel système, ce n’est pas l’unique raison pour laquelle un comité stratégique a décidé d’interrompre DataJust. La complexité de ce dernier et le manque de moyens seraient les principales conséquences de sa suspension.
Néanmoins, le ministère de la Justice n’a pas souhaité communiquer sur le sujet afin de confirmer l’arrêt du projet. On peut peut-être supposer un DataJust bis dans les années à venir.
Vers une France plus algorithmique ?
A l’instar du modèle américain, la France semble parfois réticente à adopter des projets de « justice prédictive » : de nombreux organes et associations en lien avec la protection des données personnelles n’hésitent pas à se saisir de la question.
Peut-être l’open data laissera quant à lui des chercheurs se pencher sur le sujet dans les années à venir, permettant quand même un développement de ce genre d’algorithme.
Pour plus d’informations sur l’essence même de l’algorithme DataJust et le projet d’origine, n’hésitez pas à consulter l’article de l’ancienne élève Virginie Collignon Ducret à cette adresse : https://cyberjustice.blog/2021/02/18/datajust-description-de-ce-traitement-de-donnees-en-9-questions/.
[1] CE, 30 déc. 2021, n° 440376
Elsa Moriceau
Sources :
- Emile Marzlof, 3 janvier 2022 « Le Conseil d’État valide l’algorithme d’évaluation des préjudices corporels DataJust » Acteurs Publics
- Yannick Meneceur, 14 janvier 2022 « L’IA dans la justice ne peut pas avoir réponse à tout » Acteurs Publics