You are currently viewing L’accord de l’Union européenne sur l’IA Act

Le 8 décembre 2023, les députés européens ont trouvé un accord avec le Conseil sur une proposition de règlement du Parlement européen et du Conseil établissant des règles harmonisées concernant l’intelligence artificielle (IA). C’est la Commission européenne qui a présenté cette proposition en 2021. L’Union européenne (UE) se positionne alors comme la première puissance normative du monde en matière de régulation d’intelligence artificielle. L’accord conclu marque la volonté ferme de réguler la commercialisation et l’utilisation de l’IA.

 La proposition de règlement vise à encadrer l’utilisation de l’IA dans l’Union européenne, tout en simplifiant les démarches administratives et financières pour les entreprises, en particulier les PME. Des exigences et des obligations sont prévues par l’accord.

C’est un accord qui se fonde sur une approche par les risques. L’objectif de l’Union européenne est de garantir un cadre juridique protecteur des droits fondamentaux sans entraver le développement de nouvelles technologies par les acteurs économiques européens. Le cadre juridique européen pour l’IA est ambitieux et sa mise en œuvre sera complexe. Des précisions techniques seront nécessaires pour clarifier certains aspects.

 Qui est concerné? 

L’accord sur l’intelligence artificielle s’applique à tous les systèmes d’IA qui sont développés, déployés, utilisés ou mis sur le marché dans l’Union européenne, qu’ils soient développés par des entreprises, des organisations publiques ou des particuliers 

Les lignes directrices de l’accord 

Le texte visant la réglementation de l’IA se fonde sur une approche par les risques. Il existe 4 formes d’IA dont la réglementation varie selon le risque qu’elle représente pour la société.                                       

  •     Risque inacceptable : en principe interdit
  •     Risque élevé : exigences strictes de conformité 
  •     Risque limité : obligation de transparence
  •     Risque minimal : soumis à des recommandations de conformité 

Focus sur les risques les plus élevés : 

L’IA dont le risque est inacceptable est en principe interdite. Il s’agit par exemple de systèmes de surveillance biométrique utilisant des données sensibles. Ce principe souffre cependant d’exceptions. Ainsi, l’IA à risque inacceptable peut être utilisée par les forces de l’ordre pour la prévention d’actes terroristes, la recherche de victime d’enlèvement ou encore l’identification de personnes soupçonnées d’avoir commis un crime. La France est par ailleurs l’un des pays qui a fait pression pour bénéficier de ces exceptions.  

L’IA à risque élevé est strictement réglementée. Il s’agit par exemple d’IA pouvant porter atteinte aux droits fondamentaux, à la démocratie ou à l’État de droit. Il peut s’agir d’IA pouvant impacter le résultat d’une élection. L’accord prévoit l’obligation de faire différentes analyses d’impact. Les systèmes d’IA à haut risque seront évalués en fonction de leur impact sur la société. Cette évaluation sera réalisée par les fournisseurs des systèmes, qui devront la communiquer au public. Cependant, la plupart des fournisseurs d’IA auront du mal à les réaliser lorsque l’IA est expérimentale. 

Les sanctions en cas de non-respect  

Les sanctions pour non-respect des règles de l’intelligence artificielle varient en fonction de la gravité de l’infraction et de la taille de l’entreprise. Elles peuvent aller de 7,5 millions d’euros ou 1,5 % du chiffre d’affaires annuel, pour les infractions les moins graves, à 35 millions d’euros ou 7 % du chiffre d’affaires mondial, pour les infractions les plus graves.

 Un accord controversé 

C’est un accord à deux vitesses : il faut d’une part sécuriser l’IA et les valeurs démocratiques, et d’autre part, garantir le développement des entreprises européennes. C’est la position de Jean-Noël Barrot, Ministre délégué à la transition numérique et principal acteur de l’élaboration du texte. En effet, la course à l’IA a provoqué des dissidences lors des négociations. Ainsi, la France et l’Allemagne ne souhaitaient pas que le développement de leurs entreprises en la matière soit modéré par une réglementation trop exigeante. 

En effet, en décembre, la start-up Mistral IA a levé 385 millions d’euros et propulse la France au rang de champion européen en matière d’IA. Cet acteur de l’IA reproche à Bruxelles de favoriser les entreprises américaines en régulant trop vite le secteur européen alors qu’il est en développement.

 Cet accord fait rempart au puissant lobbying mis en place par les entreprises américaines pour influencer les politiques européennes en leur faveur, afin d’éviter toute mesure qui aurait pu limiter leurs activités. L’utilisation de l’intelligence artificielle devrait également être appréciée avec prudence quant aux exceptions prévues à l’interdiction de l’IA à risque inacceptable. La surveillance biométrique utilisée par les pouvoirs publics pourrait donner lieu à des dérives autoritaires. Le modèle chinois du crédit social en est un illustre exemple. 

 

Antoine CANDAU

M2 Cyberjustice – Promotion 2023-2024

 

Sources : 

https://www.europe1.fr/societe/quest-que-mistral-ai-nouveau-champion-europeen-de-lintelligence-artificielle-4219627

https://www.strategies.fr/actualites/culture-tech/LQ2637727C/jean-noel-barrot-clarifie-le-positionnement-de-la-france-sur-lia-act.html

https://www.numerama.com/tech/1585580-pourquoi-la-loi-ai-act-de-leurope-est-elle-si-critiquee.html

A propos de Antoine CANDAU

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.