Interstellar : les controverses sur « la scène d’amarrage »

(TARS et CASE, les robots sophistiqués vs l’intuition humaine)

Alerte spoiler : l’article contient des spoilers sur l’intrigue du film.

Le film Interstellar de Christopher Nolan traite d’une exploration d’un groupe de personnes qui traversent un trou de ver dans l’espace dans le but d’assurer la survie de la race humaine sur une nouvelle planète avant que le monde prenne fin. L’équipe dispose deux robots intelligents assistants, TARS et CASE qui ont des rôles primordiaux pendant la scène d’amarrage très intense. Cependant, au début de la scène, nous sommes témoins d’un désaccord entre les deux robots artificiels et Cooper (Matthew McConaughey) alors que Cooper montre l’intention d’amarrer le navire sur le vaisseau-spatial (Endurance) endommagé afin qu’ils puissent poursuivre leur exploration. Le dialogue entre CASE et Cooper est le suivant: CASE: « Ce n’est pas possible ». Cooper: « Non, c’est nécessaire ».

En plus de l’anxiété, la scène nous donne un message sur les prédictions de l’intelligence artificielle (IA) à des situations inattendues. Elle montre que la détermination humaine prévaut sur l’IA face à des incidents auxquels ils ne se sont jamais entraînés. Nous appuierons l’idée que malgré l’importance de l’IA pour l’industrie spatiale, elle ne sera pas prête à remplacer les humains dans l’espace dans un proche avenir.

Il est évident que, l’impact de l’IA et de l’apprentissage automatique (machine learning) dans l’industrie spatiale continue de s’étendre comme il le fait sur d’autres aspects de notre vie. Nous vivons des événements historiques, tels que la première image du trou noir prise par Katie Bouman en utilisant un algorithme appelé CHIRP en 2016, la découverte des exoplanètes comme Kepler-90i à l’aide de l’IA de Google ou le développement des algorithmes pour trouver des aliens sur Mars lors de la mission ExoMars en 2022.

En effet, l’utilisation des robots intelligents dans l’espace est déjà une réalité. Tel est le cas du robot intelligent CIMON, dont le rôle est d’aider l’équipage à se sentir moins seul dans l’espace. Grâce à son système intelligent CIMON est capable de voir, d’entendre et aussi de communiquer avec les astronautes. Ce qui est intéressant, c’est que ce robot intelligent a été inspiré du personnage du professeur Simon Wright, lui-même un robot connu aussi sous le nom de «cerveau volant», de la série animée des années 1980 «Capitaine Future». Cela nous donne de l’espoir qu’un jour les astronautes auront un robot assistant intelligent comme TARS ou CASE d’Interstellar.

Bien que l’IA et l’apprentissage automatique soient positionnés au cœur de l’industrie spatiale, nous sommes toujours loin d’une IA véritablement autonome (IA forte) qui selon certains experts aura la capacité de raisonner et de porter des jugements comme les humains. Prenons l’exemple des astronautes qui ont sauvé la station spatiale Skylab à la suite de l’incident inattendu survenu lors de son lancement, ou un pilote Chesley Sullenberger malgré qu’il n’ait jamais été entraîné à la situation extrême et complexe, a décidé de faire amerrir l’avion après une collision avec des oiseaux sur le fleuve d’Hudson en 2009 et a sauvé la vie de 155 personnes à bord. Autrement dit, l’instinct humain peut apporter des résultats souhaités, tandis que l’IA (faible) prend des décisions selon les exemples fournis par leurs concepteurs.

De plus, la capacité décisionnelle de l’IA pose également des questions éthiques en ce qui concerne les accidents imprévus. Par exemple, si les voitures autonomes ne peuvent pas éviter un accident mortel, qui devraient-elles sacrifier ? Leurs propres passagers afin de sauver plus de vies ? Ou bien privilégier la vie de leurs passagers à tout prix ? Le père de l’utilitarisme Jeremy Bentham disait que «Le plus grand bien du plus grand nombre». Selon cette doctrine, la voiture autonome doit épargner les vies d’un plus grand nombre de personnes. Toutefois, cela soulève une autre question d’éthique : dans quelle mesure est-il juste de ne pas différencier les vies des enfants, des personnes âgées, des femmes enceintes ou des criminels ?

Bref, en analysant les enjeux décisionnels de l’IA, il s’avère que la scène d’amarrage du film Interstellar n’est pas accidentelle. Rappelons que, le scénario du film a été consulté avec Kip Thorne, lauréat du prix Nobel de physique qui était également conseiller scientifique et producteur exécutif du film. Est-il possible que la scène essaie de nous montrer que peu importe la progression de l’IA, le jugement humain est irremplaçable en cas d’incidents inattendus ? C’est pourquoi, Cooper dans sa réponse souligne la nécessité de son action plutôt que de remettre en question sa possibilité, car son objectif était de sauver la race humaine même si son action risquait leur propre vie (un calcul utilitariste). 

Pour conclure, aujourd’hui, l’une des questions les plus discutables liées à l’utilisation de l’intelligence artificielle est le respect des intérêts et des droits individuels et collectifs conformément au principe de proportionnalité. À l’avenir, l’intelligence artificielle entièrement autonome – IA forte (s’il peut en effet être développé) devrait également apprendre à la fois les valeurs humaines et le meilleur intérêt de l’humanité, ainsi que la nécessité de prendre des risques pour les protéger, que ce soit dans l’espace, sur l’autoroute ou ailleurs. La fin du monde est inévitable selon la science, mais la survie de la race humaine est nécessaire et selon certains scientifiques comme Stephen Hawking elle dépend de la colonisation d’une nouvelle planète. Et si un jour une race humaine survit sur une nouvelle planète comme on le voit dans Interstellar, l’IA forte qui pourra fonctionner de manière autonome en cas de perte de contact avec le monde, même après sa fin, pourrait avoir un grand impact dans cette réalisation.

Rafael ISMAYILOV

M2 Cyberjustice – Promotion 2020/2021

Laisser un commentaire