• Auteur/autrice de la publication :
  • Temps de lecture :6 min de lecture
  • Post category:Non classé
Résultat de recherche d'images pour "deepfake"
https://siecledigital.fr/2019/10/07/la-californie-legifere-sur-les-deepfakes-politiques-et-pornographiques/

Deepfake : d’abord cantonné à la presse spécialisée, le terme fleurit désormais dans de nombreux médias. Chaque spécialiste — ou non — y va de son commentaire, alliant inquiétudes et intérêt technologique. 



Mais les deepfakes, qu’est-ce que c’est ? 

Le mot est une contraction de l’anglais « deep learning » et « fake ». On a récemment pu entendre parler du mot fake, qui signifie faux, avec le débat autour des fakes news. Le deep learning, quant à lui, se rattache à une méthode d’étude de certaines intelligences artificielles qui vont apprendre de leurs erreurs, grâce à certains algorithmes qui utilisent notre architecture d’apprentissage neuronal. Les deepfakes consistent donc à créer une vidéo ou une piste audio en transposant le visage ou la voix d’une personne, la faisant dire ou faire quelque chose de totalement imaginé. Pour faire simple, c’est la possibilité d’imiter n’importe qui pour lui faire dire et faire n’importe quoi. 



Quels sont les risques ? 

En janvier dernier, Paul Scharre (attaché supérieur de recherche et directeur du programme de technologie et de sécurité nationale du centre pour une nouvelle sécurité américaine) tirait la sonnette d’alarme en ces termes : « au cours des deux prochaines années, nous verrons des vidéos truquées jouer un rôle dans les campagnes politiques aux États-Unis ou en Europe. Avec la technologie qui s’améliore, nous verrons des gens créer de fausses vidéos pour essayer d’influencer la campagne, de salir les candidats, et ce sera un défi pour les démocraties. C’est un bras de fer entre ceux qui créent des vidéos et les chercheurs en sécurité qui essaient de mettre au point des outils de détection efficaces ». 

Il est vrai qu’imaginer ce type de vidéos pulluler dans nos médias a de quoi susciter une certaine appréhension. Nous avons pu le voir avec le débat provoqué par la recrudescence des fakes news : celles-ci provoquent de puissantes émotions qui hystérisent le débat. Si le démenti vient souvent rectifier l’information après coup, le mal est souvent déjà fait. Déconstruire un discours en faisant appel à la raison prend du temps et, souvent, ces démentis ont un impact beaucoup plus visible que la rumeur initiale qui continue insidieusement de se propager, gangrenant le débat. 

Les risques de voir proliférer les deepfakes ne se cantonnent pas à la sphère politique. DeepNude, une application développée par des éditeurs estoniens en mars dernier permettait à ses utilisateurs de recomposer la nudité supposée d’une femme grâce à une base de données enrichie de dizaines de milliers de photos de nus. Si l’application a depuis été supprimée, il ne faut pas être dupe : de nombreux clones du logiciel se sont substitués et continueront à se développer. Un dernier exemple de l’implication que peuvent avoir ces deepfakes dans notre vie quotidienne : la reconnaissance faciale. Fleuron de certaines entreprises il y a quelques années, de nombreux smartphones en sont désormais équipés. Au départ cantonnés à une simple image fixe, les logiciels de reconnaissance faciale analysent désormais des séquences animées. Alibaba, société chinoise de commerce électronique, leader du B2B, a développé en collaboration avec PayPal un système de paiement « smile to pay ». Un sourire à la caméra suffisait à s’identifier régler ses achats. Finalement, Alibaba a dû implémenter une deuxième couche d’identification pour sécuriser ce service… grâce à l’envoi d’un code SMS sur le téléphone. 



Quelles réponses apporter ? 

Si les deepfakes se développent, leurs pendants le font également. En 2018, Siwei Lyu (professeur au département d’informatique et directeur du laboratoire de vision par ordinateur et d’apprentissage automatique de l’Université d’Albany aux Etats-Unis) a mis au point, avec son équipe, un logiciel permettant de détecter les deepfakes. Celui-ci était basé sur le clignement des yeux des sujets. En effet, les deepfakes puisent leurs images dans des bases de données publiques où les personnes répertoriées sont rarement photographiées les yeux fermés. Mais, peu de temps après, les logiciels de deepfakes ont intégré sa découverte afin de perfectionner leur crédibilité. Le sujet avance ainsi à tâtons : pour chaque faille découverte, une mise à jour vient réparer la lacune. 

Beaucoup plus récemment, des chercheurs américains ont annoncé travailler sur un système de lutte contre les deepfakes grâce à des souris3. Celles-ci ont un système auditif comparable à l’homme, mais se concentrent sur les sons produits puisqu’elles ne comprennent pas le sens des mots. Elles sont ainsi plus à même de détecter toute anomalie sonore dans une piste audio. 

S’il faut bien entendu prendre en considération la question des deepfakes, il ne faut pas non plus céder à la panique. La France ne condamne pas les deepfakes en tant que tel mais elle dispose d’un arsenal législatif suffisant pour les sanctionner : diffamation, injure, manipulation d’information, concurrence déloyale, atteinte à l’honneur et à la réputation ou encore le récent revenge porn, les moyens d’actions sont nombreux pour punir ces vidéos fallacieuses. 

De plus, il convient de rappeler que les mêmes débats avaient eu lieu avec la démocratisation des logiciels de retouche photo il y a une dizaine d’années. Certains citoyens se laissent berner par un simple montage Photoshop, d’autres non. Tout est question d’esprit critique et de vérification des sources. 



Anne Radovitch
Master 2 Cyberjustice – Promotion 2018-2019