Faut il interdire les robots tueurs?

Alors que la robotisation s’impose partout dans la société, celle des armées semble inéluctable. Les technologies dotées d’une autonomie d’ouverture du feu amènent des inquiétudes légitimes. Ces dernières années, des voix se sont élevées contre l’utilisation de ces « robots tueurs», notamment pour dénoncer une atteinte à une certaine conception de la guerre. Pourtant est-il possible de se passer d’une telle technologie ?

Cependant de quoi parle-t-on quand on parle de « robot tueurs » ?

Ce terme désigne des robots militaires pourvus de capacités offensives, et plus spécifiquement ceux dotés d’une autonomie pour décider d’ouvrir le feu ou non.

Lors de la fusillade à Dallas en 2016, la police américaine fait pour la première fois usage d’un robot tueur télécommandé pour éliminer Micah Johnson, 25 ans, l’assassin de cinq policiers, retranché dans un garage. 

Si cette robotisation de la guerre inquiète nombre d’acteurs c’est aussi parce qu’elle présente un certain nombre de développements dangereux comme a pu l’écrire Alexandra Delire dans son article : « IA et sécurité : un futur à envisager pour les systèmes d’armes létaux autonomes ? »

Une robotisation de la guerre

L’utilisation de robots présente des intérêts pour l’armée, que ce soit pour la collecte d’information, pour la réactivité et la précision de cette technologie et  sa capacité à fonctionner en continue.

Mais cette transformation va indéniablement changer la conduite de la guerre.

Quid du respect du droit de la guerre ?

On peut supposer que les États qui le prennent en considération continueront à le faire avec les robots, et que les autres les utiliseront sans considération pour les civil·es, y compris leur propre population.

Déjà, le secrétaire d’état à la défense américain a dénoncé les exportations de « robot tueurs » chinois vers des régimes autoritaires du Moyen Orient.

Mais pour les démocraties comme pour les dictatures, ces technologies risquent de faciliter le recours aux assassinats ciblés.

La course des grandes puissances

Selon les spécialistes du domaine, la Chine, les États-Unis et la Russie sont entrés dans une compétition intense sur la programmation d’IA militaires. Vladimir Poutine a déjà pu expliquer l’enjeu actuel en disait « celui qui deviendra leader dans le domaine de l’IA sera le maître du monde ».

Israël, l’Inde, le Japon, la Corée du Sud, la France, l’Australie, le Royaume-Uni explorent les potentiels de ces technologies. La course aux robots et drones de combat autonomes est donc en cours.

Le Département de recherche militaire américain (Darpa) a un budget de 15 milliards d’euros pour le seul développement des robots militaires. Selon le New York Times, ce département a déjà testé des drones autonomes pouvant décider quelle cible attaquer « sans aucune aide humaine ».

Le leader dans le domaine, Google, a d’ailleurs proposé ses services au Pentagone, ce qui a provoqué une levée de boucliers parmi ses employés ne voulant pas participer à des programmes militaires.

Côté russe, un robot humanoïde a été dévoilé en 2016, censé aider les cosmonautes sur la station spatiale internationale. Cependant, une vidéo le montrant en train de tirer sur des cibles avec deux armes à feu semble plutôt indiquer que Fedor (Final Experimental Demonstration Object Research) n’a pas vocation à se cantonner seulement à de la maintenance dans l’espace .

Quel enjeux philosophiques pour ces robots tueurs?

Les levées de boucliers concernant le développement de ces technologies ne concerne pas que les atteintes potentielles au droit de la guerre, elles traduisent aussi une conception occidentale de la guerre qui n’est pas en phase avec la réalité des conflits armées du 21e siècle.
Cette volonté que l’Homme soit le responsable de l’engagement de la force létale ou de la décision de tuer traduit une idée selon laquelle l’Homme, même en temps de guerre, est le plus à même de faire le bon choix ou dans être responsable. Pourtant, l’Histoire peut facilement démontrer l’inverse.

La guerre est une permanence dans l’objectif d’épuisement du conflit et la Terre n’a jamais connu d’année sans guerre. Pour paraphraser Alain, « le sentiment de l’horreur est le moteur des guerres ». Certes, ces armes létales autonomes sont de facto un modèle asymétrique de combat suivant le modèle d’un chasseur et de sa proie. Or, le XXIe siècle a pu montrer que la guerre n’est plus un modèle symétrique. Les guerres ne sont pas que l’anéantissement d’un ennemi, elles sont aussi un moyen d’assurer son influence idéologique. Les puissances géopolitiques s’adonnent à des guerres d’influence ou de déstabilisation et instrumentent les contestations, le terrorisme ou les fake news.

La guerre, l’affrontement, peut aussi revêtir une conception d’honneur, très française, puisque déjà au Moyen Age, les arbalètes avaient été interdites puisqu’elles étaient considérées comme l’arme des lâches.

Pourtant cette conception n’est pas partagé ailleurs dans le monde. Dans l’Art de la guerre, Sun Tzu énonce « L’acmé de la stratégie militaire est d’obtenir la victoire sans effusion de sang »

Anne-Claire Loup
M2 Cyberjustice – Promotion 2019-2020

Sources :

https://fr.wikipedia.org/wiki/Syst%C3%A8me_d’armes_l%C3%A9tales_autonome

https://korii.slate.fr/tech/robots-tueurs-revolution-technologique-cauchemar-ethique-armee-terrorisme-intelligence-artificielle-militaire

https://information.tv5monde.com/info/robots-tueurs-autonomes-malgre-une-mise-en-garde-de-l-onu-leur-developpement-continue-243991

https://www.unog.ch/80256EE600585943/(httpPages)/7C335E71DFCB29D1C1258243003E8724?OpenDocument

Article « IA et sécurité : un futur à envisager pour les systèmes d’armes létaux autonomes? » Alexandra Delire

Laisser un commentaire