You are currently viewing Les algorithmes sont- ils neutres ?

La neutralité des algorithmes est l’idée selon laquelle les systèmes informatiques automatisés, comme les algorithmes, les réseaux de neurones et les systèmes décisionnels, ne doivent pas introduire de biais ou de discrimination envers certaines personnes ou groupes de personnes. Cela signifie qu’ils doivent fonctionner de manière impartiale et traiter toutes les personnes de manière équitable, indépendamment de leur origine ethnique, leur genre, leur orientation sexuelle, leur religion, leur race.

 

La définition d’un algorithme 

Selon la CNIL, un algorithme est la description d’une suite d’étapes permettant d’obtenir un résultat à partir d’éléments fournis en entrée. Il est souvent comparé à une recette de cuisine, car il donne des instructions étape par étape pour atteindre un résultat spécifié. Les algorithmes peuvent être exécutés par un ordinateur ou par une personne en suivant les instructions à la lettre. Ils peuvent être utilisés dans une variété de domaines, notamment l’informatique ou l’intelligence artificielle. Les progrès de ce qu’on appelle l’intelligence artificielle s’appuient également sur des algorithmes.

 

La fausse neutralité des algorithmes 

Il subsiste des préoccupations croissantes quant aux biais existants dans les algorithmes utilisés dans des domaines tels que la détection de la criminalité, l’embauche ou la santé. Ces biais peuvent être introduits de différentes manières, notamment par les données sur lesquelles les algorithmes sont formés, la manière dont les algorithmes sont conçus et les décisions qui sont prises à partir de leurs sorties.

La discrimination algorithmique peut se produire de différentes manières. Certaines des façons les plus courantes sont : 

  • Biais dans les données d’apprentissage : les algorithmes d’apprentissage automatique sont formés à partir de données historiques, et s’ils contiennent des biais ou des inégalités dans ces données, ces biais peuvent être amplifiés ou reproduits par l’algorithme. Par exemple, si les données d’entraînement pour un système de reconnaissance facial contiennent principalement des personnes de certaines races, l’algorithme pourrait avoir des difficultés à reconnaître les personnes de races différentes.
  • Décisions automatisées : les algorithmes peuvent être utilisés pour prendre des décisions automatisées, telles que l’accord ou le refus de crédits, les pratiques de recrutement, et d’autres types de décisions qui ont des impacts sur les personnes. Si ces algorithmes sont biaisés, ils peuvent causer des inégalités dans les résultats pour différentes personnes ou groupes

Il faut souligner que ces biais peuvent être cumulatifs et amplifiés. C’est pourquoi il est important de mettre en place des mécanismes pour identifier et corriger ces problèmes lors de la conception et de la mise en œuvre des algorithmes.

 

L’exemple de l’intelligence artificielle “TAY”

L’un des exemples qui prouvent l’existence de failles au sein des algorithmes est celui de “TAY” (Thinking About You), créée par Microsoft et Bing et introduite en 2016 sur la plateforme Twitter. C’est un chatbot, c’est-à-dire un programme conçu pour discuter avec de vraies personnes. Seulement tout ne se passe pas comme prévu. En moins de 24 heures, Tay est banni de Twitter du fait de tweets racistes et antisémites, comme : “Bush a fait [les attentats du] 11-Septembre et Hitler a fait un meilleur travail que le singe [insulte raciste visant le président Barack Obama] que nous avons maintenant. Donald Trump est notre seul espoir”.  Selon l’informaticien russe Roman Yampolskiy «  La transformation de Tay s’explique par son imitation des comportements des autres internautes Microsoft ne lui ayant pas donné une compréhension préalable de ce qui pourrait être considéré comme un comportement approprié ». 

Finalement, Tay a manqué d’esprit critique car il n’aurait fait que répéter des phrases d’internautes. De fait, il n’est plus neutre car il prend la philosophie de certains humains sans discernement. Malheureusement Tay n’est pas la seule, de nombreux exemples peuvent être cités comme la plateforme pour s’inscrire dans l’enseignement supérieur Parcoursup. Le Défenseur des droits avait jugé en janvier 2019 que la prise en compte du critère du lycée d’origine revenait à discriminer certains élèves de lycées dits « sensibles ». 

Lutter contre le biais et la discrimination algorithmiques

Afin de lutter contre les biais algorithmiques, les développeurs peuvent utiliser différentes techniques. On peut par exemple citer  l’évaluation des biais, la diversité des données, la transparence des algorithmes et l’interprétabilité pour s’assurer que les algorithmes sont équitables et non discriminatoires.

Pour éviter la discrimination algorithmique, il est important de mettre en place des mécanismes pour évaluer les biais potentiels. Ceci afin de favoriser l’interprétabilité des algorithmes, et d’intégrer la diversité et l’inclusion dans la conception des algorithmes.

Il est important de mener des évaluations de l’impact pour évaluer les conséquences de l’utilisation de l’algorithme sur des groupes spécifiques et pour identifier des biais cachés. 

Il ne faut pas omettre que les algorithmes sont des outils créés par les humains, pour aider les humains. Or l’erreur est humaine, les algorithmes prennent certaines caractéristiques de la pensée ou du comportement humain, d’où ces discriminations. 

 

Etiquettes : Algorithmes ; Discrimination ; Numérique ; Intelligence artificelle; Nouvelles technologies

 

Lise Bujon 

M2 Cyberjustice- Promotion 2022-2023

 

Sources : 

https://www.cnil.fr/fr/definition/algorithme

https://www.journaldunet.fr/web-tech/guide-de-l-intelligence-artificielle/1501319-biais-algorithmique-en-ia/

https://www.francetvinfo.fr/internet/reseaux-sociaux/twitter/tay-le-robot-de-microsoft-quitte-twitter-apres-des-derapages-racistes_1374963.html

https://www.vie-publique.fr/en-bref/274595-algorithmes-alerte-sur-les-risques-de-discriminations

A propos de Lise Bujon