Un jour, mon robot m’aimera

Eprouver des émotions comme la peine ou la joie envers une machine serait un phénomène de plus en plus vu aujourd’hui. Cet acte permettant de pouvoir interagir avec un robot comme avec un de nos semblables, relève de ce qu’on appelle aujourd’hui « l’empathie artificielle ».

Les progrès de l’Intelligence Artificielle ont amené avec eux la question de nos relations avec les robots : de nombreuses d’études prouvent que les humains sont capables de ressentir de l’empathie envers eux, empathie qui encourage les utilisateurs à les considérer comme des créatures vivantes voire humaines. 

Mais alors comment cela est-ce possible ?

Selon Serge Tisseron, psychiatre et psychanalyste, il existe 2 principaux facteurs justifiant ce phénomène. 

  • Tout d’abord, le 1er facteur est le tempérament personnel 

En effet, il s’avère que les utilisateurs d’automates éprouvent un certain attachement à ces derniers qui s’illustrent par l’attribution de nom, la customisation et le développement de leurs rapports. 

C’est par exemple le cas des soldats américains utilisant les robots démineurs PackBot qui ont parfois, vis-à-vis d’eux, des émotions et des comportements comme s’ils étaient des animaux de compagnie ou même des êtres humains.

Il faut, avant tout, savoir qu’un PackBot n’a absolument pas une apparence humanoïde : il s’agit d’une sorte de caisse avec un bras articulé, une pince et une caméra.

 Ainsi, les militaires avouent avoir de la reconnaissance envers ces robots qui ont combattus à leurs côtés. Ils déclarent ressentir de la peine ou de la colère lorsque les démineurs PackBot sont détruits ou endommagés. Certains vont même jusqu’à leur organiser des funérailles ou leur donner des médailles de mérite

  • Par ailleurs, le 2e facteur est la machine elle-même :

La façon dont les machines sont présentées et vendues à leurs utilisateurs impacte la relation humain-robot. Ces dernières sont davantage programmées pour évoquer des réactions humaines ou animales, et ont l’apparence adéquate

Aujourd’hui, des robots sont en capacité d’analyser nos émotions et de transmettre un semblant d’effet en retour. C’est notamment  le cas des robots PARO et Nao, qui, grâce à des capteurs, peuvent détecter les micro-expressions et l’intonation de la voix de l’interlocuteur. Ou d’Alexa, l’assistante personnelle intelligente d’Amazon qui a la capacité de reconnaître dans la voix d’une personne l’irritation et l’agacement.

En effet, certains fabricants parlent « d’émo-robots »; quelques-uns, essayent de limiter le caractère humanoïde en donnant à leur robot une voix métallique mais d’autres font le choix d’une voix totalement humaine, comme dans le cas de Alice.

Cela donne donc l’impression d’avoir une vie derrière.

Quelles en sont les conséquences ?

L’un des risques essentiels est la confusion entre l’être vivant et sa création qu’est le robot. Ainsi, dans le cadre des PackBot endommagés, les soldats présentent non seulement des troubles somatiques mais d’autres sont prêts à mettre leurs vies en danger pour les protéger ou les sauver.

Selon les psychologues, un autre danger est la détérioration des relations entre humains. L’empathie artificielle ferait oublier aux utilisateurs que leurs robots sont toujours connectés à leur fabricant. 

Par exemple, Alice, le petit humanoïde ayant le corps d’un automate et le visage d’une petite fille, est programmée pour formuler des jugements constamment positifs. L’une des premières phrases en arrivant chez quelqu’un est « votre appartement est très joli ». Les robots de compagnie pourraient bien rendre nombreux de leurs utilisateurs moins sensibles à la contradiction, voire plus intolérants au caractère toujours imprévisible des interlocuteurs humains.

Le risque de trouver ces robots tellement agréables et gratifiants pourrait même créer une robot-dépendance. Les utilisateurs se sentiront toujours plus heureux avec eux qu’avec les humains, jusqu’à aller vivre qu’entourés de ceux-là.

D’autant plus que les débats se concentrent davantage sur l’attribution des droits aux machines. En effet, la chercheuse au MIT Kate Darling propose que les robots bénéficient de lois qui les protègent contre la maltraitance. En réalité, cette proposition ne vise pas à les protéger de la douleur qu’ils pourraient ressentir : elle a pour but la protection des humains qui souffriraient de les voir malmenés. C’est ce qu’ils pourraient vivre par procuration, « un peu comme une mère souffre de la souffrance qu’elle voit éprouver par son enfant » précise Tisseron.

Reste à poser quelques questions probante : cette empathie automatisée risque-t-elle de laisser sa place à d’autres émotions ? Serait-il possible de tomber amoureux/se de son robot ? Ou bien, un jour, notre robot nous aimera-t-il ? 

Sumeyye Asan

M2 Cyberjustice 

Promotion 2020/2021

Sources :

https://www.ierhr.org/alice-cares-vers-lempathie-artificielle/

https://www.upf.edu/documents/3816330/3831459/20150908-Les_Echos-Les_robots_face_au_dexfi_de_lxempathiex_Sciences_x_Prospectives.pdf/1d2909c1-2cca-4e6d-a40a-e2a30a32adbc

https://www.ouest-france.fr/sciences/l-empathie-avec-les-robots-est-elle-un-danger-6097784

https://spectrum.ieee.org/robotics/artificial-intelligence/brain-scans-show-humans-feel-for-robots

Image Credit : https://www.ecommercemag.fr/Thematique/techno-ux-1226/Breves/Trouver-bon-equilibre-humains-robots-322691.htm

Laisser un commentaire