Beaucoup y ont pensé, Clearview l’a fait : un logiciel de reconnaissance faciale alimenté par les réseaux sociaux

Clearview AI, une entreprise de technologie américaine qui fournit des logiciels de reconnaissance faciale, généralement commercialisés pour les organismes d’application de la loi, a récemment fait l’objet d’une enquête du New York Times, parue le 18 janvier, dans laquelle il s’est avéré que cette entreprise a mis en place un logiciel de reconnaissance faciale permettant d’identifier des personnes à partir d’une banque de plus de 3 milliards de photos collectées via Facebook, YouTube, et d’autres sites web. Une innovation clairvoyante sur les besoins des forces de police modernes, aveugle à la notion du consentement.  

Une collecte de données personnelles inquiétante, se faisant sans le consentement des personnes

Grâce aux photos collectées sur Twitter, LinkedIn, Google, YouTube, Facebook, Instagram, et plusieurs autres sites et réseaux sociaux, une base de données colossale est créée. Cette base de données permettrait par exemple de comparer, en quelques instants, un visage, enregistré par une caméra de surveillance, à ceux existant dans le moteur de recherche afin d’identifier la personne. 

D’après le New York Times « les utilisateurs de Clearview peuvent potentiellement identifier de la sorte toutes les personnes qu’elles ont vues. L’outil pourrait être utilisé pour identifier des militants dans des manifestations, ou un bel inconnu dans le métro, ne révélant pas seulement leur nom, mais aussi leur lieu de vie, ce qu’ils ont fait précédemment et quelles sont leurs fréquentations ». Il suffit de téléverser une image, une simple photo d’un visage, parfois même sans avoir besoin qu’elle soit très nette, pour obtenir des informations sur la personne, son lieu de résidence, ses comptes sur les réseaux sociaux… 

Une pratique qui n’a pas plu aux leaders du web. Google, Facebook et Twitter, qui ont demandé à Clearview de ne plus alimenter ses algorithmes au moyen des images de leurs plateformes. 

Le fondateur de la firme Clearview AI, pour se défendre, s’est basé sur l’idée de publicité des résultats sur les moteurs de recherches et sur les sites qu’elle utilise pour alimenter sa base de données. Selon Hoan Ton-That, qui estime agir en toute légalité, les résultats de recherche sur Google sont publics, ils le sont également sur le moteur de recherche de la firme, par conséquent, Clearview AI s’inscrit dans la continuité du géant de l’internet. 

Un logiciel utilisé par 600 organismes aux États-Unis et au Canada 

L’outil fait déjà florès auprès des forces de police locales américaines. Au Canada, le moteur de recherche trouve aussi du succès. En effet, la Gendarmerie Royale du Canada (GRC) a avoué avoir utilisé l’outil Clearview afin d’établir des reconnaissances faciales. Un outil utilisé aussi par plus de 30 services policiers canadiens, qui précisent utiliser la version gratuite de l’application.  

Pour leur défense, les autorités fédérales canadiennes ont déclaré que « le Centre national de coordination contre l’exploitation des enfants (CNCEE) de la GRC utilise et examine le logiciel de Clearview AI depuis environ quatre mois dans des enquêtes sur des cas d’exploitation sexuelle d’enfants sur Internet » tout en rajoutant que l’utilisation de cette application leur a permis d’identifier et sauver des enfants.

Ghada Soussi
M2 Cyberjustice – Promotion 2019-2020

Sources :  https://www.nytimes.com/2020/01/18/technology/clearview-privacy-facial-recognition.html

https://ici.radio-canada.ca/nouvelle/1641195/clearview-ai-canada-police-grc-entreprise-via-rail-liste-client-vol-donees-intelligence-artificielle-reconnaissance-faciale-logiciel-application-controverse

Laisser un commentaire