La responsabilité de l’État face aux risques et préjudices causés par l’intelligence artificielle

L’intelligence artificielle est une notion difficile à définir car elle peut être aussi variée qu’il existe de technologies ou de services intelligents. La Commission européenne dans sa Communication sur l’intelligence artificielle la définit comme des « systèmes qui font preuve d’un comportement intelligent en analysant leur environnement et en prenant des mesures avec un certain degré d’autonomie pour atteindre des objectifs spécifiques. »

Il a été prouvé que le traitement des données pour alimenter l’intelligence artificielle provoque des risques importants, à grande échelle, pour la sauvegarde des droits fondamentaux des citoyens. Par exemple, l’étude de l’agence américaine National Institute of Standards and Technology prouve que l’algorithme de la reconnaissance faciale viole le droit au respect de la vie privée et le principe de non-discrimination. En effet, il est démontré qu’un système de reconnaissance faciale se trompe entre 10 et 100 fois plus lors de l’identification de personnes d’origine afro-américaine ou d’origine asiatique. La question de la responsabilité des risques et préjudices est primordiale lorsque nous savons que ce sont des systèmes algorithmiques qui en viennent à prendre certaines décisions.

Qui est responsable des préjudices causés par une intelligence artificielle ?


D’abord, l’État a une responsabilité suprême, celle de s’assurer de la protection des droits de l’homme. Cependant, le pouvoir de l’émergence des systèmes algorithmiques revient aux entreprises du numérique qui sont les concepteurs de ces technologies. La CEDH contraint alors les États à adopter une législation et des politiques nationales qui permettent le respect des droits fondamentaux. Les concepteurs des systèmes paramètrent les réglages d’origine et les objectifs à atteindre, donc par principe doivent aussi être responsables de leurs technologies. Cependant, un nouveau problème entre en jeu, celui de la multiplicité des acteurs. La création d’un système d’intelligence artificielle nécessite la collaboration de nombreux éléments tels que des logiciels, des composants, des circuits, des algorithmes. De plus, ces technologies intelligentes disposent de systèmes d’apprentissage automatique qui dérèglent leurs paramètres et qui leur permettent de prendre des décisions elles-mêmes.

Afin de déterminer le responsable, le Conseil de l’Europe se base sur un principe fondamental, celui de la réciprocité. C’est-à-dire que « ceux qui offrent des services dont ils tirent des bénéfices (…) doivent assumer la responsabilité de leurs conséquences négatives. » De plus, il énonce que les États doivent se doter « de mécanismes, instruments et institutions de gouvernance efficaces et légitimes pour surveiller, encadrer et superviser la conception, le développement, la mise en œuvre et le fonctionnement responsable de nos systèmes sociotechniques. » Le Conseil de l’Europe appelle les États à mettre en œuvre une responsabilité des auteurs de l’intelligence artificielle afin de prévenir les éventuels risques de cette technologie. 

L’intelligence artificielle étant un processus et un concept en perpétuelle expansion, il est crucial que des normes pertinentes soient caractérisées pour encadrer ce développement exponentiel.  

Laetitia Alran

M2 Cyberjustice – Strasbourg – Promotion 2020/2021

Sources : https://rm.coe.int/responsability-and-ai-fr/168097d9c6

Laisser un commentaire