You are currently viewing Dilemmes éthiques et biais dans l’intelligence artificielle et la technologie de reconnaissance faciale

Le développement de l’intelligence artificielle a des effets sociaux et culturels considérables. Il soulève des questions relatives à la liberté d’expression, à la vie privée, à l’accès et à la protection des données, à la discrimination, à la manipulation de l’information, etc. ne se limite pas à la création de textes et d’images, mais aussi de nombreuses questions éthiques.

Les systèmes basés sur l’IA ont des implications considérables pour la compréhension et l’expertise humaines. Les algorithmes des réseaux sociaux et des sites d’information peuvent contribuer à la diffusion de fausses nouvelles. Les “deepfakes” produits par l’IA générative affectent notre capacité à comprendre ce qui est un fait et ce qui est un mensonge. Elles influencent également l’interaction et l’engagement politique. L’échelle et la puissance générées par la technologie de l’IA renforcent l’asymétrie entre les individus, les groupes et les nations. Le marché du travail risque d’être considérablement modifié par l’introduction d’un nombre croissant de systèmes basés sur l’IA dans différents domaines.

Les biais 

L’examen de tous les problèmes potentiels liés à l’utilisation de l’IA n’entre pas dans le cadre de cet article mais il est important de comprendre pourquoi et comment l’IA les provoque. À cette fin, examinons les biais dans les systèmes de reconnaissance faciale basés sur l’IA.

Par exemple, en 2009, une blogueuse américaine d’origine asiatique a découvert que l’appareil photo intelligent Nikon Coolpix S360 qu’elle avait acheté enregistrait que les membres de sa famille clignaient des yeux, alors que sur les photos tous les yeux étaient grands ouverts. Le programme ne savait pas comment traiter les caractéristiques asiatiques.

De la même manière, dans le cas d’identification d’une personne, le système de reconnaissance faciale peut donner deux résultats incorrects : les faux positifs et les faux négatifs : un « faux positif » où une personne est faussement associée à une autre et un « faux négatif » où une personne n’était pas associée à son image par l’algorithme, alors qu’elle aurait dû l’être. Cela peut impliquer des problèmes de discrimination.

Les systèmes de reconnaissance faciale testés sur des images de visages appartenant à une population diversifiée de personnes de plusieurs pays et groupes d’âge, présentaient des taux de fausses correspondances très faibles (environ 1 fausse correspondance sur 10 000 essais). Ces mêmes systèmes, lorsqu’ils sont testés sur une population plus homogène, entre des personnes appartenant à la même tranche d’âge et à la même zone géographique, présentent des taux de fausses correspondances environ 20 fois plus élevés. Cet écart s’explique par le fait que lorsque les personnes ont le même âge et partagent davantage de traits, elles peuvent être plus difficiles à distinguer. Les performances d’un système varient en fonction de la diversité de la population sur laquelle il est appliqué.

Dans de nombreuses expériences, les taux de faux positifs les plus élevés ont été enregistrés chez des personnes d’Afrique de l’Ouest, d’Afrique de l’Est et d’Asie de l’Est. Les taux de faux positifs les plus faibles concernaient les personnes d’Europe de l’Est.

Précision des algorithmes

Il convient de rappeler trois points importants. Premièrement, un algorithme ne renvoie jamais un résultat définitif, mais seulement des probabilités. L’algorithme ne peut pas donner le résultat de 100 % de probabilité parce qu’il y a de risque d’avoir pour la plupart des résultats faux négatifs. Deuxièmement, il y a toujours un compromis entre les faux positifs et les faux négatifs en raison de la décision sur le seuil de probabilité. Si le seuil est plus élevé, les faux positifs diminuent, mais les faux négatifs augmentent, et inversement. Troisièmement, les taux doivent être évalués en tenant compte de la quantité de cas réels. Par exemple, un taux d’identification de faux positifs de 0,01 signifie que sur 100 000 personnes, 1 000 seront marquées à tort.

Le problème de biais est commun dans le domaine d’utilisation de l’intelligence artificielle. Les décisions fondées sur l’IA sont susceptibles d’être inexactes, de résultats discriminatoires, de biais intégrés ou insérés. S’il existe des différences dans les performances d’un algorithme, il est généralement très difficile, voire impossible, d’éliminer le biais par des solutions mathématiques ou programmatiques. Par exemple, aux Pays-Bas en 2013 les autorités fiscales néerlandaises ont accusé à tort des milliers de familles à faible revenu de fraude sur la base des résultats de l’algorithme d’IA. Les familles étaient principalement des immigrés. L’utilisation des algorithmes raciaux a conduit à des événements tragiques et à des préjudices irréversibles, comme certaines personnes se sont suicidées et de nombreux enfants ont été placés dans des familles d’accueil.

Pour être efficaces et précis, les logiciels doivent être alimentés par de grandes quantités de données diversifiées. Pourtant, à ce jour, les images faciales utilisées pour développer des algorithmes dans le monde occidental surreprésentent souvent les hommes blancs, avec un nombre inférieur de femmes ou d’individus d’autres origines ethniques.

La discrimination dans les systèmes basés sur l’IA pourrait avoir un effet négatif sur la cohésion des groupes, si les personnes appartenant à des groupes ethniques spécifiques sont systématiquement désavantagées en raison de préjugés intégrés.

Emiliya Ramazanova

Master 2 Cyberjustice – Promotion 2023/2024

#ethicsAI #discrimination #ethiqueAI #reconnaissancefaciale

Sources :

A propos de Emilia RAMAZANOVA

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.