You are currently viewing Plainte de NOYB : ChatGPT et les fausses informations indélébiles

Le 29 avril dernier, l’association fondée par Max Schrems pour la défense des droits et libertés numérique appelée “None of your business”, plus communément “NOYB”, décide de porter plainte contre OpenAI à la suite d’une expérience décevante

Un soupçon initial 

ChatGPT est un chatbot conversationnel doté d’intelligence artificielle (IA). Celui-ci est connu pour sa capacité étonnante à répondre à des requêtes à une vitesse fulgurante. En revanche, cet outil ne dévoile pas ses sources, lesquelles peuvent être, parfois, problématiques. La réponse peut avoir été tirée d’une “fake news” ou d’une source non fiable. Faudrait-il alors vérifier la véracité des informations par nous-mêmes ? Cela serait équivalent à une énorme perte de temps, contraire à l’esprit de ce système d’intelligence artificielle qui se veut rapide et efficace pour l’utilisateur. 

Il est important de noter que cet outil se nourrit des données qu’on lui introduit. Il apprend lors de phases spécifiques d’apprentissage et lors de ses interactions avec les utilisateurs qui lui proposent des requêtes. Dans les deux cas, des données personnelles peuvent y être introduites. Le problème se pose lorsque ces données sont fausses. C’est le cas de l’expérience de Max Schrems avec cette IA générative

La plainte de NOYB 

La mauvaise expérience en cause est la suivante : l’association a décidé d’interroger ChatGPT sur la date d’anniversaire de son fondateur, or, la réponse fournie par l’outil était erronée. Un problème sous-jacent est apparu au moment où NOYB a demandé à l’entreprise de rectifier la fausse information, et que celle-ci a répondu expressément qu’une telle action n’est pas possible. 

Cette ONG a alors décidé de porter plainte contre OpenAI auprès de la CNIL autrichienne. Ses arguments se fondent sur une contrariété au Règlement général sur la protection des données (RGPD), puisqu’en effet, la date de naissance est une donnée personnelle. 

La contrariété au RGPD 

L’articulation entre le RGPD et l’intelligence artificielle est aujourd’hui évidente. En effet, à partir du moment où l’outil traite des données personnelles (collecte, stockage, organisation, restitution…), la législation européenne s’y applique. 

Le fait qu’OpenAI ne puisse pas, à ce jour, rectifier les fausses informations que ses systèmes d’IA fournissent, constitue plusieurs atteintes au règlement européen, notamment : 

  • Le principe d’exactitude prévu par l’article 5. Ce principe exige que les données soient “exactes, et, si nécessaire, tenues à jour”
  • Le droit à la rectification des données personnelles inexactes consacré par l’article 16
  • Le droit d’accès prévu à l’article 15, de manière plus indirecte. Lorsque les données ne sont pas collectées auprès de la personne concernée, celle-ci a le droit d’en connaître la source. 

Ainsi, de fortes inquiétudes apparaissent désormais avec, d’une part, l’augmentation de l’utilisation des IA génératives, parfois avec une confiance aveugle, et, d’autre part, ces contrariétés au RGPD pleinement assumées par OpenAI. 

Il est donc important de prendre du recul sur la confiance accordée à ces outils, et d’être vigilant dans leur utilisation. 

Kenza GHEZLOUN-PEREZ 

Master 2 Cyberjustice – Promotion 2023/2024

#IA #faussesinformations #RGPD #NOYB #plainte #CNIL #droit

Sources : 

https://noyb.eu/fr/chatgpt-provides-false-information-about-people-and-openai-cant-correct-it

https://www.20minutes.fr/high-tech/4048786-20230811-chatgpt-bard-relaient-beaucoup-trop-fake-news-etre-sources-fiables-selon-etude

https://www.radiofrance.fr/franceculture/podcasts/avec-sciences/les-fausses-donnees-cliniques-de-chatgpt-4506631

https://www.cnil.fr/fr/reglement-europeen-protection-donnees/chapitre2

A propos de Kenza GHEZLOUN

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.