DeepNude : un exemple des dangers du Deepfake

Dimanche 23 juin 2019, une start-up estonienne nommée DeepNude a lancé une application du même nom sur le marché. Cette dernière a provoqué un immense scandale, tant elle a franchi un cap dans la violation de la vie privée des internautes.

En effet, cette application permettait de dénuder « virtuellement » les photos de femmes. Concrètement, l’application utilisait un logiciel de rayons X couplé à une intelligence artificielle et une base de données comportant des photos de femmes nues. L’utilisateur de cette application prenait la photo d’une femme habillée. Puis, il la soumettait aux rayons X qui analysaient sa morphologie. Le résultat était traité par l’IA qui devait trouver, parmi ses données, le corps nu correspondant le mieux à la morphologie de la femme. Une fois ce corps trouvé, l’IA faisait l’assemblage, ce qui donnait une photo nue à la vraisemblance troublante. Le résultat final était agrémenté de la mention « FAKE », écrite en rouge, afin d’indiquer qu’il constituait bien un faux.

Dès son lancement, DeepNude a suscité une vague de critiques et d’indignations virulentes. L’argument principal était que cette application facilitait la commission des infractions pénales de revenge porn et de pornographie sans consentement, cette-dernière particulièrement. A cause de DeepNude, n’importe quelle photo de femme, prise dans la rue ou bien déjà présente sur un réseau social, a pu être modifiée et transformée en nu. L’un des créateurs de l’application, dont le pseudonyme est Alberto, s’est défendu en disant que la mention « FAKE » permettait d’identifier les photos modifiées, et que le même résultat pouvait être obtenu par n’importe qui en utilisant Photoshop. Or, des journalistes ont prouvé que le « FAKE » pouvait s’enlever très facilement, précisément à l’aide de Photoshop ou d’autres applications du genre, et les critiques ont insisté sur le fait que cette application « démocratisait » les délits de deepfake. Finalement, les créateurs ont cédé à la pression et ont décidé de supprimer DeepNude 4 jours après son lancement, soit le 27 juin 2019.

Pour autant, DeepNude n’est que le sommet de l’iceberg. NudifierApp, une application exactement similaire, est disponible en toute légalité sur toutes les plateformes de téléchargements pour smartphones. D’autres applications, encore plus élaborées, peuvent se trouver aisément sur des forums du Dark Web. Symptomatiques des dangers du deepfake, ces logiciels nous rappellent qu’utiliser les réseaux sociaux sera de plus en plus dangereux pour les internautes, a fortiori pour les femmes, et que trouver des informations fiables sur Internet sera de plus en plus difficile.

Il convient de préciser que tout usage de deepfake, y compris le deepnude dans le cadre de revenge porn ou de pornographie sans consentement, est puni par la loi française : l’article 226-8 du Code pénal prévoit une sanction d’un an d’emprisonnement et de 15.000€ d’amende. 

EL MAMOUNI Habib

M2 Cyberjustice, Promotion 2019-2020

Sources :

https://www.vosgesmatin.fr/france-monde/2019/06/29/deepnude-l-appli-qui-deshabillait-les-femmes-retiree

https://www.washingtonpost.com/business/2019/06/28/the-world-is-not-yet-ready-deepnude-creator-kills-app-that-uses-ai-fake-naked-images-women/?noredirect=on

https://www.vice.com/en_us/article/kzm59x/deepnude-app-creates-fake-nudes-of-any-woman

Laisser un commentaire