Ça y est, des chercheurs de l’Académie des Sciences en Chine ont créé une Intelligence artificielle capable de remplacer les procureurs. Actuellement testée par le Parquet de Shanghai Pudong, cette IA aurait une précision de 97 %. Mais entre ce que disent ses créateurs et les procureurs « humains », il semble que cette innovation, bien que marquante, soit encore controversée.
L’IA nommée « système 206 » a été créé pour remplacer le Procureur dans certaines tâches. Elle a été mise au point en 2015 et depuis elle aurait étudié plus de 17 000 dossiers juridiques. À cet effet, plus de 400 professionnels du droit issus des tribunaux, des parquets chinois et de la sécurité publique ont été affecté à son développement. En plus de cet effectif déjà conséquent, 300 informaticiens de la société iFLYTEK ont été mis sur le projet.
D’après les chercheurs, sa marge d’erreur n’est que de 3 %. Elle pourrait donc rendre coupable un individu sur la seule description verbale de l’affaire.
Le but de cette technologie est de détacher les Procureurs des tâches que l’IA peut effectuer seule et leur laisser ainsi plus de temps pour les tâches plus complexe. Depuis sa mise à l’épreuve au Parquet de Shanghai en 2019, elle peut transcrire des témoignages, transférer des données et des documents physiques vers des bases de données électroniques, afficher immédiatement les paramètres pertinents : temps, lieu, personnes, comportements et conséquences. Elle peut aussi identifier les preuves défectueuses ou contradictoires ainsi que répondre à des commandes orales pour afficher des preuves et des informations sur des écrans dans la salle d’audience.
Elle peut d’ores et déjà accuser une personne des huit infractions les plus courantes : la fraude à la carte de crédit, les jeux d’argent, la conduite imprudente, les agressions intentionnelles, l’obstruction à un officier, le vol, la fraude, et même les dissidences politiques.
C’est la Commission politique et judiciaire relevant du Comité central du Parti communiste chinois qui a été l’instigateur de ce projet. Et c’est dans ce contexte politique particulier de la Chine, que certains se posent des questions. Certains pensent que les infractions que l’IA reconnaît sont des termes génériques pour y étouffer les « crimes » des opposants politiques.
Au-delà de ces considérations politiques, l’utilisation de l’IA pour accuser une personne d’infraction et de crime pose une question éthique et juridique sur la responsabilité.
Qui de la machine ou du Procureur sera responsable en cas d’erreur ? L’humain se trompe encore sur la culpabilité de certains, alors une machine qui accuserait à tort un individu peut-elle être tenue pour responsable ?
Si l’on voit de plus en plus de projets d’IA se développer au niveau mondial, afin de faciliter le travail des juges, on est encore loin d’une application effective. En France par exemple, l’article 22 du RGPD interdit qu’un individu fasse l’objet d’une « décision fondée exclusivement sur un traitement automatisé » qui aurait des conséquences juridiques sur lui.
Ludine WAGNER
M2 Cyberjustice 2021-2022
Sources :
https://siecledigital.fr/2022/01/04/chine-une-intelligence-artificielle-pour-aider-la-justice/