A l’ère des réseaux sociaux et de l’intelligence artificielle, il est parfois difficile de savoir si les contenus publiés sur des plateformes sont réels ou non. Il est donc possible de voir des deepfakes plus ou moins réalistes sur les réseaux sociaux.
D’un point de vue étymologique, le terme « deepfake » renvoie aux notions anglaises : « deep learning » et « fake ». Le « deep learning » peut être traduit comme un apprentissage profond et désigne essentiellement le mode d’apprentissage de l’intelligence artificielle. Le mot « fake » désigne ce qui est faux, artificiel ou contrefait. Le mot « deepfake » est traduit en français par l’hypertrucage, terme qui n’est pas souvent utilisé dans le langage courant.
Le deepfake peut donc être défini comme un montage d’images, de vidéos et de sons au moyen d’une intelligence artificielle. Cette technique permet de superposer plusieurs multimédias afin de créer un nouveau contenu. L’intelligence artificielle désigne essentiellement tout outil utilisé, afin de reproduire des comportements humains.
Plusieurs deepfakes connus ont été publiés sur divers réseaux sociaux. Il s’agit par exemple d’une image du pape François avec une doudoune blanche, d’une vidéo d’Emmanuel Macron et de Brigitte Macron ou d’une vidéo de Barack Obama. Ils ne sont pas seulement publiés sur les réseaux sociaux mais également à la télévision. Par exemple, l’émission C’est Canteloup diffusée sur la chaîne de TF1 utilise les deepfakes afin d’incarner différents personnages politiques dans un esprit humoristique.
Selon une étude réalisée par l’Institut français d’opinion publique (Ifop), seuls 33% des Français estiment pouvoir discerner un contenu généré par une intelligence artificielle d’un contenu réel. Dans cette même étude, 2191 personnes ont été confrontés à cinq deepfakes et 94% d’entre eux se sont trompés au moins une fois sur le caractère réel ou non de l’image.
Cette étude démontre que les deepfakes peuvent entraîner des risques, car il est souvent difficile de déterminer leur véracité. Il est donc important que cette technique soit encadrée légalement.
Les risques liées aux deepfakes
Premièrement, la publication de deepfakes peut entraîner la diffusion de fausses informations. Cette technique est souvent utilisée afin d’influencer différents votes, comme par exemple les élections présidentielles en France ou aux Etats-Unis. Cette pratique conduit à la désinformation du grand public, lorsqu’ils sont très réalistes. Ils peuvent avoir un impact important sur la démocratie.
De plus, il existe plusieurs cas de fraude qui sont facilités par l’utilisation de l’intelligence artificielle et des deepfakes. Toute personne détenant suffisamment de données, comme des photos, des vidéos ou le son de la voix d’une personne, peut les modifier afin d’utiliser ces contenus à des fins frauduleuses. Par exemple, il est possible qu’une personne reçoive un appel téléphonique d’un membre de sa famille, lui demandant l’envoi d’une somme d’argent. Souvent, l’urgence est utilisée afin de créer un sentiment de peur. En réalité, il s’agit d’une personne malveillante ayant modifié sa voix. Il est donc important que chaque personne reste vigilante face à de tels appels pour ne pas être victime de ce type de fraude.
L’encadrement des deepfakes par le Règlement sur l’intelligence artificielle (RIA)
Le RIA a été publié au Journal officiel le 12 juillet 2024 et est entré en vigueur le 1er août 2024. Dans ce règlement, l’hypertrucage est définit comme : « une image ou un contenu audio ou vidéo généré ou manipulé par l’IA, présentant une ressemblance avec des personnes, des objets, des lieux, des entités ou événements existants et pouvant être perçu à tort par une personne comme authentiques ou véridiques ».
L’article 50 du RIA pose une obligation de transparence pour les fournisseurs et les déployeurs de certains systèmes d’IA. Cet article impose aux personnes générant des deepfakes d’indiquer les contenus qui ont été modifiés ou manipulés grâce à une intelligence artificielle. Lorsque le deepfake fait partie d’une œuvre artistique, créative ou satirique, l’obligation de transparence est atténuée, car cela ne doit pas entraver l’affichage ou la jouissance de l’œuvre.
L’encadrement des deepfakes par la loi SREN
La loi du 21 mai 2024 visant à sécuriser et à réguler l’espace numérique (loi SREN) encadre dans une certaine mesure les deepfakes.
Cette loi SREN a complété l’article 226-8 du code pénal qui réprimait déjà « le montage réalisé avec les paroles ou l’image d’une personne sans son consentement, s’il n’apparaît pas à l’évidence qu’il s’agit d’un montage ou s’il n’en est pas expressément fait mention ». Dorénavant, cet article sanctionne également « le fait de porter à la connaissance du public ou d’un tiers, […] un contenu visuel ou sonore généré par un traitement algorithmique et représentant l’image ou les paroles d’une personne, sans son consentement ». Les termes « traitement algorithmique » désignent ici l’utilisation d’une intelligence artificielle. Ce comportement est réprimé s’il n’est pas fait mention de l’utilisation d’une intelligence artificielle ou si cette utilisation n’est pas évidente.
Des sanctions adaptées sont donc nécessaires afin d’éviter une prolifération de l’utilisation et de la publication des deepfakes. L’infraction mentionnée ci-dessus est punie d’un an d’emprisonnement et de 15.000 euros d’amende. La peine est portée à deux ans d’emprisonnement et à 45.000 euros d’amende lorsque le deepfake a été réalisé en utilisant « un service de communication au public en ligne ». Cela peut renvoyer notamment à la publication de deepfakes sur les réseaux sociaux.
Julie Branco de Véra
M2 Cyberjustice – Promotion 2024-2025
Sources :
Règlement – UE – 2024/1689 – EN – EUR-Lex
Les Français et les jeunes face aux deepfakes – IFOP
Légipresse | Dalloz (u-strasbg.fr)
Dalloz IP/IT | Dalloz (u-strasbg.fr)
