L’intelligence artificielle (IA) n’a eu de cesse de se développer depuis ces dernières années. Parmi ses nombreux usages se trouvent des IA capables de générer, de façon totalement autonome, des images. Appelées IA génératrices d’images, elles peuvent être utilisées pour le meilleur, comme pour le pire.
Certains internautes n’ont pas tardé à détourner ces dernières pour créer des images pédopornographiques d’un réalisme parfois déconcertant. Ainsi, rien que pour les quatre premiers mois de l’année 2023, ce sont soixante-huit lots contenant ce type d’images qui ont été repérés sur des forums, contre vingt-cinq sur l’ensemble de l’année 2022.
Un phénomène bien antérieur à l’IA
User de l’art pour représenter de la pornographie enfantine n’est pas nouveau. Dans les années 1980 par exemple, est apparu au Japon le « lolicon ». Ce terme désigne des productions artistiques telles que des mangas, des animes ou encore des jeux vidéo mettant en scène, de façon érotique ou pornographique, des jeunes filles prépubères.
Autre exemple récent, et en France, celui du dessinateur Bastien Vivès, visé en janvier 2023 par une enquête pour diffusion d’images pédopornographiques à travers ses bandes dessinées.
Si le phénomène n’est pas nouveau, l’IA vient lui offrir une dimension nouvelle de par l’accessibilité grandissante aux outils permettant la création de ces images, ainsi que la facilité pour réaliser et partager celles-ci.
La répression de la pédopornographie par le droit français
En vertu de l’article 227-23 du Code pénal, le droit français punit de cinq ans d’emprisonnement et de 75 000 euros d’amende la consultation, la détention et la diffusion d’images et de représentations pédopornographiques. Lorsqu’un réseau de communications électroniques est utilisé à ces mêmes fins, les peines sont portées à sept ans d’emprisonnement et à 100 000 euros d’amende.
Détail très important, cet article s’applique dès lors que l’image représente une personne « dont l’aspect physique est celui d’un mineur ». Ainsi, peu importe que la personne représentée soit réelle ou non, ou que l’image soit photoréaliste ou pas. Ce qui compte, c’est la représentation – un avis partagé par la chambre criminelle de la Cour de cassation. Cette dernière avait énoncé, dans une décision en date du 12 septembre 2007 qu’entraient dans le champ d’application de l’article 227-23 du Code pénal les « images non réelles représentant un mineur imaginaire, telles que des dessins ou des images résultant de la transformation d’une image réelle ». Ainsi, au vu de ces éléments, la création d’images à caractère pédopornographique via l’utilisation d’une IA peut être réprimée sur la base de cet article.
Enfin, les plateformes qui permettent la transmission ou le stockage de contenus sont tenues, de leur côté, à certaines obligations. En effet, l’article 6 de la loi pour la confiance dans l’économie numérique les oblige à lutter contre la diffusion d’images pédopornographiques. Pour cela, elles doivent notamment mettre à disposition de leurs utilisateurs un système permettant le signalement de tels contenus. Elles doivent également informer les autorités de ces signalements. En cas de non-respect de leurs obligations, leurs dirigeants s’exposent à une peine d’un an d’emprisonnement ainsi qu’à une amende d’un montant de 250 000 euros.
Une répression de la pédopornographie différente selon les pays
Tous les pays ne partagent pas la conception française en matière de répression de la pédopornographique, et notamment les États-Unis. Depuis la décision Ashcroft v. Free Speech Coalition du 16 avril 2002, les représentations pornographiques fictives impliquant des mineurs sont considérées comme relevant de la liberté d’expression, et sont donc, à ce titre, protégées par le Premier amendement de la Constitution américaine.
Or, une grande partie des entreprises dans le secteur de l’IA sont basées aux États-Unis. De quoi rendre difficile l’obtention d’un accord international visant à lutter contre ce phénomène.
Les mesures prises par certaines entreprises développant des IA
Pour tenter d’endiguer la création de tels contenus, quelques entreprises développant des IA génératives d’images ont adopté des mesures restrictives. Certaines, comme Stable Diffusion ou encore Dall-E, ont ainsi opté pour le blocage de certains mots-clés, empêchant alors les requêtes visant à la création de ces images. Des garde-fous qui, malheureusement, ne sont pas infaillibles. Il suffit, en effet, d’employer d’autres expressions que celles bloquées, ou d’utiliser d’autres langues que l’anglais, lesquelles sont moins bien modérées.
C’est sans compter également le développement d’IA en « open source ». Facilement modifiables, de sorte à pouvoir les rendre « spécialisées » dans la production d’images pédopornographiques, elles peuvent fonctionner sur un ordinateur personnel, sans recourir à des serveurs ou une plateforme tierce. De ce fait, elles ne laissent aucune trace sur Internet et les internautes n’hésitent pas à se les partager.
Un phénomène à surveiller
Pour l’heure, ce phénomène reste encore relativement mineur. Toutefois, plusieurs organisations non gouvernementales (ONG) dédiées à la protection des droits de l’enfant craignent, à l’avenir, une recrudescence massive de ce genre d’images.
Ainsi, l’une de ces ONG, le Centre national pour les enfants disparus et exploités (National Center for Missing and Exploited Children), est actuellement en discussion avec plusieurs législateurs américains afin d’élaborer, avant que la situation ne soit incontrôlable, de nouvelles réglementations.
Jeanne THIELGES
M2 Cyberjustice – Promotion 2022/2023
Sources:
https://www.legifrance.gouv.fr/juri/id/JURITEXT000007640077/
https://supreme.justia.com/cases/federal/us/535/234/case.pdf