La liberté n’est sans doute pas garantie sans sécurité et c’est ce que l’homme a très vite compris en s’organisant, au fil de son évolution, de plus en plus en des structures sociétales. Mais alors que ses besoins de sécurité étaient jusqu’à récemment encore assurés par l’humain lui-même, il a des moyens techniques de plus en plus sophistiqués à sa disposition.
On se retrouve en effet à l’heure actuelle à une époque charnière pour la société concernant la mise en balance entre libertés individuelles et le renforcement de la sécurité qui enfreint inévitablement ces libertés. C’est notamment à cause du progrès technique que le droit se retrouve actuellement en position de faiblesse par rapport au progrès. Il est pour cela important que le monde du juridique suit le pas du monde de la technologie parce qu’il est difficile d’encadrer des solutions qui sont à première vue très efficaces et opportunes mais qui ne peuvent pas pour autant être dangereuses pour les libertés individuelles.
La reconnaissance faciale est une technique qui permet, à partir des traits de visage, d’authentifier une personne, c’est-à-dire, vérifier qu’une personne est bien celle qu’elle prétend être (par exemple lors d’un contrôle d’accès) ou d’identifier une personne, c’est-à-dire, de retrouver une personne au sein d’un groupe d’individus, dans un lieu, une image ou une base de données d’images.
Ce qui a changé ces dernières années en matière de reconnaissance faciale est l’arrivé de l’intelligence artificielle et du deep learning. L’intelligence artificielle se définit de manière générale comme un algorithme, donc une instruction de calculs, qui, par l’apprentissage de données (images en l’occurrence) arrive à dégager le résultat souhaité par son développeur. Ce système, dès qu’il est conçu, apprend par lui-même à partir des données qui lui sont introduites, le tout connu sous la détermination du deep learning.
La reconnaissance faciale peut bien évidemment trouver application à des fins de maintien de l’ordre public. Alors que cette technique est utilisée de manière extensive et sans limites dans des pays comme la Chine, elle commence à se répandre de plus en plus sur le continent européen.
C’est notamment le Royaume-Uni qui a été sujet de polémiques concernant l’efficacité et le taux d’erreur de leurs outils de reconnaissance faciale. La France a également récemment fait des essais de reconnaissance faciale des émotions des passagers de ses tramways. Cette subdivision technique est appelée reconnaissance comportementale.
NEC est une société de droit japonais qui a vendu son outil NeoFaceWatch aux services de police du pays de Galles. Selon l’entreprise, leur algorithme aurait le plus haut taux d’efficacité en matière de reconnaissance faciale. NeoFaceWatch sert à analyser des vidéos en temps réel mais également des vidéos enregistrées ou des recherches par des images précises. La police de Wales a par exemple équipée ses voitures de police avec des caméras et recherche ainsi des suspects qui figurent sur une liste de recherche prédéfinie par cet outil.
C’est ainsi que la police du pays de Galles a utilisée le système lors de la finale de l’UEFA en 2017 au stade et dans la ville elle-même et c’était selon leur colonel en chef un véritable succès. C’était la première fois qu’un service de police a utilisé un tel système lors d’un grand événement sportif au Royaume-Uni. Chris de Silva, le responsable des technologies de reconnaissance faciale de NEC en Europe a dit que la société collabore actuellement avec 47 gouvernements partout dans le monde.
La technologie derrière l’outil n’utilise pas uniquement des caméras déployées dans l’espace public mais également des caméras des téléphones, tablettes et voitures des forces de l’ordre. Ce qui diffère est que l’outil transpose les informations des images en des métadonnées ce qui permet à l’algorithme d’être beaucoup plus vite. Ce qui est enregistré dans la base de données ne sont donc pas des images à grande taille et nécessitant beaucoup de puissance de calcul mais plutôt des données biométriques comme la distance entre les yeux ou la longueur du nez.
La problématique principale est que de tels outils sont encore très fautifs aujourd’hui et c’est en ce sens que le journal britannique The Independent a su identifier un taux d’erreur énorme de 98 % concernant l’outil de reconnaissance faciale utilisé par la Metropolitan Police.
En réalité, un algorithme reste en fin de compte une instruction de calculs qui ne peut être plus parfaite que son auteur. L’algorithme peut donc contenir des distorsions et n’est que la représentation de la vérité subjective de son créateur.
En ce qui concerne l’Etat chinois, ce dernier a utilisé cette technique d’une manière encore beaucoup plus intrusive comme les Etats européens, qui ne peuvent pas aller aussi loin, notamment parce qu’il se trouvent soumis à la Convention européenne des droits de l’homme et au fameux Règlement sur la protection des données personnelles de l’Union européenne.
Malgré le progrès technologique, le risque zéro n’existe pas et la sécurité proche de l’absolu exige un prix trop élevé de la part de la société. Dans un Etat de droit, il ne peut y avoir d’élimination totale de tous les dangers et de définitions pénales de toutes les infractions.
Concernant les normes juridiques, Catherine Thibierge, professeur à l’Université d’Orléans, constate une conversion de la norme en norme sensorielle. Prenant l’exemple chinois, grâce au très grand nombre de caméras de vidéo-surveillance mises en place dans ce pays en général, dès qu’un piéton traverse la rue alors que le feu n’est pas au rouge pour les voitures, il est photographié, identifié en quelques secondes par un système de reconnaissance faciale très perfectionné et ultra rapide, et l’instant d’après, aux intersections de rues environnantes, sa photo et son nom s’affichent en grand format aux yeux de tous.
En un temps quasi instantané, l’expression de la norme sensorielle, la violation de la norme, le constat de sa violation, l’identification de l’auteur, la « décision » de la sanction et sa mise en œuvre, sous forme de stigmatisation publique, ont eu lieu. Sans gendarme ni juge. Sans tiers, sans intervention humaine. Sans contradiction, sans interprétation, sans recours… devant le fait normatif et numérique accompli. Il s’agit là d’un exemple extrême, qui donne une idée des potentialités de cette normativité sensorielle combinée à la technologie numérique.
Néanmoins la reconnaissance faciale, tel qu’elle est employée ou prévu d’être employée sur le continent européen, a également là une influence sur la structure normative. C’est ainsi qu’un tel système met en danger le principe de la présomption d’innocence. On arrive ainsi à une culpabilité par défaut renversant complétement ce principe. On doit en effet dès lors se comporter adéquatement à chaque moment, au risque de déclencher une alarme. En effet, personne ne peut éviter une caméra vidéo intelligente dans l’espace public sans avoir à éviter tout l’espace public. Le système entraine dans ce sens également la suppression de l’anonymat.
Les systèmes de reconnaissance faciale peuvent par contre avoir des effets bénéfiques pour la société. Cela ne dépend que de leur encadrement. Les systèmes peuvent notamment être utiles pour retrouver des criminels recherchés (en prenant l’exemple de la base de données d’INTERPOL par exemple), pour retrouver des personnes disparues ou encore afin d’arrêter des présumés terroristes. Par conséquent, la reconnaissance faciale est ni bien ni mal à la base et son utilisation éthique dépend du législateur qui devra l’encadrer de manière adéquate.
Tun Hirt
Master 2 Cybersécurité – Promotion 2018-2019
Sources :
Webtimemedias: Smart City: « Minority Report » bientôt dans le tram de Nice (03.01.2019)
Les « normes sensorielles » – Catherine Thibierge – RTD civ. 2018. 567
https://droitdu.net/2018/09/decision-de-la-cour-europeenne-des-droits-de-lhomme-la-surveillance-de-masse-operee-par-lagence-de-renseignement-du-royaume-uni-viole-les-droits-humains/
https://www.independent.co.uk/news/uk/home-news/met-police-facial-recognition-success-south-wales-trial-home-office-false-positive-a8345036.html
https://www.cnil.fr/fr/definition/reconnaissance-faciale
https://www.nec.com/en/press/201707/global_20170711_01.html