IA et sécurité : un futur à envisager pour les systèmes d’armes létaux autonomes?

Imaginez un monde où la guerre ne serait qu’un combat entre robots, sans perte humaine. Doit-on y croire ?  Alors que certains décrivent la course aux armes autonomes, tels les robots tueurs, comme la «  la troisième révolution de l’art de la guerre » d’autres expriment leurs inquiétudes. 

Les robots tueurs autonomes sont capables de faire le choix de tirer sans qu’un humain ne le commande. C’est bien cette capacité offensive de l’intelligence artificielle qui inquiète. En effet, au départ, la robotisation des armées présentent des avantages certains, avantages humains ou encore économiques : mobiliser, collecter des informations et réagir 24h/24, 7j/7 sans les contraintes d’une personne physique et avec une meilleure efficacité. Ainsi, on a déjà des robots utiles à l’armée :

  • Ceux qui n’ont que très peu d’autonomie voire aucune et qui collectent les informations.
  • Ceux qui sont télé-opérés ou qui sont partiellement autonomes mais en aucun cas ils ne peuvent tirer seuls.

Quels dangers du développement et l’usage de robots tueurs doit-on envisager ?

De nombreuses ONG formant Compaign to Stop Killer Robots ont mis en place toute une campagne afin d’exposer les risques de ces robots mais également d’y promouvoir l’interdiction du développement, de la production et de l’usage de ceux-ci. 

Les problèmes exposés sont :

  • L’incapacité des robots à ressentir de la compassion comme l’humain et d’être dotés de discernement. 
  • Le risque d’une course à l’armement robotique
  • Les risques de dommages sur personnes civiles non contrôlés et atteintes aux droits fondamentaux. Quid du droit de la guerre ? Une violation tout à fait probable, le crime de guerre est le risque le plus fort qu’on puisse envisager.
  • Flou juridique sur la responsabilité. Quelle responsabilité pénale pour un robot qui n’a aucune intention ? Quelle sanction ? Quelle réparation ? Il est ridicule de penser qu’une machine peut être personnellement condamnée. Il faudra déterminer qui peut être responsable et dans quelle mesure : le concepteur, le producteur ou celui qui, potentiellement, commande la machine.
  • La dérive de l’utilisation de ces robots hors contexte de la guerre comme leur utilisation dans un Etat policier à l’encontre de la population. De plus, n’oublions pas qu’il s’agit d’algorithmes et d’intelligence artificielle. Par conséquent, le risque de cyberattaques soit de piratage pour des raisons de sabotages, terroristes ou tout autre est inéluctable.

Doit-on encadrer ou interdire ? 

Certains pays comme les Etats-Unis, la Chine, la Russie sont en ce moment même en train de développer ces armes létales autonomes. On peut notamment citer Samsung SGR-A1 en Corée du Sud, mais qui reste une arme fixe.

La question concernant l’encadrement ou l’interdiction de ces armes est actuellement toujours en discussion et peine à déboucher. Ce qui en ressort est qu’il est envisagé de développer des armes qui pourront ouvrir le feu automatiquement, mais la nuance apportée est que le contrôle humain est maintenu. Néanmoins, dans ce cadre-ci, on ne considère plus ces armes comme autonomes puisque la France lors des réunions du Groupe d’Experts Gouvernementaux sur les Systèmes d’Armes Létaux Autonomes dans le cadre de la Convention sur certaines armes classiques définissent ces dernières comme « des systèmes capables de définir ou d’altérer le cadre de leur mission sans validation humaine, et de recourir à la force létale sans aucune forme de contrôle ou de supervision humaine » ; L’autonomie complète pour la France, supervision ou possibilité de reprendre le contrôle pour d’autres, elle constitue déjà un des nombreux désaccords entre les Etats.

De plus, son encadrement est d’autant plus complexe qu’il faudrait que les discussions aboutissent à la mise en place d’un cadre international définissant la licéité du développement et de l’utilisation de ces armes. Néanmoins, les Etats restent souverains dans leur droit à l’armement et certains trouvent inutiles de légiférer davantage.

Alors, doit-on craindre d’un passage de la science-fiction à la réalité et l’émergence, bien plus tard, d’une IA forte qui dérive ? Pour le moment, ces systèmes n’existent pas vraiment mais même s’ils sont loin de voir le jour, leur développement est en plein progrès. Terminator est encore loin.

Alexandra Delire
M2 Cyberjustice – Promotion 2019-2020

Sources :

https://korii.slate.fr/tech/robots-tueurs-revolution-technologique-cauchemar-ethique-armee-terrorisme-intelligence-artificielle-militaire

https://www.francetvinfo.fr/economie/emploi/metiers/armee-et-securite/intelligence-artificielle-les-robots-tueurs-nouvelle-revolution-dans-l-art-de-la-guerre_3113091.html


Laisser un commentaire