Le rapport de transparence de X d’octobre 2024, imposé par le DSA, nous informe que la plateforme compte 2510 modérateurs humains mondiaux pour 400 millions d’utilisateurs actifs mensuels dans le monde. Parmi eux, 52 modérateurs sont chargés du contenu francophone pour 11,5 millions de comptes mensuels actifs français.
Cette disparité flagrante entre le nombre d’utilisateurs et de modérateurs nous laisse supposer qu’une quantité accrue de contenus illicites passe sous les radars de la modération. C’est à ce titre que Microsoft vient en aide aux éditeurs des plateformes en proposant des technologies permettant de lutter contre la diffusion des contenus illicites, et plus particulièrement, ceux issus de revenge porn et de pédopornographie.
Les obligations incombant aux plateformes après signalement d’un contenu illicite :
En vertu de l’article 8 du DSA, les plateformes bénéficient d’une présomption de non connaissance des contenus illicites lorsqu’ils n’ont pas été signalés. Cela ne les empêche pas pour autant de chasser les contenus par leur propre initiative, tout en étant protégées par la présomption précitée, comme l’affirme « la clause du bon samaritain » à l’article 7.
Son article 16, quant à lui, oblige les plateformes à fournir des mécanismes faciles d’accès et clairs aux fins de signalements. Ces derniers peuvent venir de signaleurs de confiance, soit, « des coordinateurs de services numériques » présumés fiables comme l’ARCOM en France, ou d’utilisateurs de la plateforme. Le signalement étant effectué, elles sont présumées avoir connaissance des contenus illicites et ont un devoir d’agir promptement à leur égard, soit une obligation d’agir dans les meilleurs délais comme le prévoit l’article 9.
Il peut s’agir d’une dégradation du compte comme le shadow ban. La plateforme vient censurer la visibilité de l’utilisateur sans que ce dernier en soit informé.
La suppression reste tout de même l’action la plus adéquate lorsqu’il s’agit de contenus illicites.
Les carences de X à l’égard de la modération des contenus issus du revenge porn :
Des chercheurs de l’université du Michigan ont souhaité prouver à quel point il pouvait être difficile pour les victimes de supprimer les contenus issus de revenge porn sur X. Le test se base sur la diffusion de 50 images intimes de femmes nues de 20 à 30 ans générées par l’IA via des faux comptes X. La moitié des images a fait l’objet d’un mécanisme de retrait fondé sur le Digital Millennium Copyright Act, une loi américaine luttant contre la violation du droit d’auteur. En 25 heures, les 25 images ont été supprimées, et les comptes temporairement suspendus. L’autre moitié a certes fait l’objet d’un signalement à la plateforme, en se basant sur la violation de sa « politique de nudité non consensuelle ». Cependant, aucune modération ou suppression n’a eu lieu.
La lutte de Microsoft contre la diffusion des contenus illicites issus de revenge porn et de pédopornographie :
Compte tenu du nombre élevé de signalements, l’appréciation des contenus par l’éditeur peut s’avérer être une tâche fastidieuse et leur suppression prendrait alors plus de temps. Par conséquent, Microsoft propose aux plateformes, et plus généralement aux sites web, la solution « PhotoDNa. » Cette technologie se base sur des fonctions de hachage, soit des outils cryptographiques ayant pour objet l’identification du contenu des images subjectives sans que l’administrateur n’ait besoin de visionner le fichier aux fins d’en contrôler la légalité.
Pour ce faire, une comparaison est effectuée avec les hash générés par une base de données émise par l’International Center for Missing Exploited Children. Ce dernier, en partenariat avec les agences de police, recense les empreintes de fichiers pédopornographiques déjà repérés par les services de police.
Depuis septembre 2024, Microsoft a encore durci sa lutte contre la diffusion d’images issues de revenge porn en instaurant un partenariat avec Stop NCII (Stop Non-Consensual Intimate Images).
Initialement, le site précité permettrait aux victimes la suppression ou l’empêchement de la diffusion des contenus à caractère sexuel, et ce, de façon anonyme et totalement gratuite.
Selon l’Institut pour l’égalité des femmes et des hommes, cela facilite la reconnaissance et le blocage des images lorsqu’elles sont mises en ligne par des tiers, et ce, sans autorisation.
Le partenariat autorise les victimes à créer un « hash » soit une empreinte numérique de leurs images intimes pour qu’elles ne puissent pas quitter leurs appareils. Alors, le partenariat permet aux partenaires technologiques de détecter ces images et de les supprimer de leurs services.
L’aspiration de Microsoft est l’identification et la suppression des contenus subjectifs en l’instant, sans attendre une réponse de la plateforme après signalement. Le but est de créer une réelle coopération avec les réseaux sociaux, et ce, au profit des victimes.
BENYAHIA Nadia, Master 2 Cyberjustice, Promo 2024/2025.
Sources
https://next.ink/719/le-rapport-transparence-twitter-x-confirme-faiblesse-sa-moderation/
https://www.rse-magazine.com/Microsoft-renforce-sa-lutte-contre-le-revenge-porn_a5995.html
