Suicide et société de l’information : quels moyens de prévention ?

Depuis l’avènement de la place des réseaux sociaux dans nos sociétés, ces derniers ainsi que certaines nouvelles technologies sont souvent pointés du doigt par l’opinion publique comme étant responsable des suicides, particulièrement chez les adolescents et les jeunes adultes. 

En effet, l’ère numérique favorise ce que le sociologue américain David Phillips a qualifié en 1974 d’effet Werther (en référence à Die Leiden des jungen Werthers roman de 

Goethe). Il soutient l’idée selon laquelle il y aurait un lien étroit entre la médiatisation forte d’un suicide et l’augmentation de ses taux. Les réseaux sociaux en général et plus particulièrement Twitter et Facebook relayent assez largement les informations concernant les personnes se donnant la mort ce qui a pour conséquence d’accentuer cet effet. Cela couplé aux exigences sociales liées à ces mêmes réseaux, au harcèlement en ligne, font parfois de ces derniers des acteurs indirects et involontaires jouant un rôle dans le suicide de certains individus.  

Ayant conscience de cette problématique les réseaux sociaux et certains concepteurs de nouvelles technologies de l’information et de la communication ont tenté d’y répondre.  

• Les réseaux sociaux  

Sur les réseaux sociaux la possibilité de signaler un contenu suicidaire a tendance à se généraliser. En effet, sur la majorité d’entre eux aujourd’hui les photos d’automutilation sont supprimées mais aussi les contenus durs ou incitant à se mutiler afin de limiter l’effet Werther. Il ne s’agit pas de l’unique moyen permettant de limiter le suicide.  

La question dite de « l’écoute silencieuse » notamment chez Facebook a pu faire débat en 2017. En effet, le réseau social a décidé il y a 3 ans de stocker les données dites de « santé mentale de ses utilisateurs ». L’idée même de ce stockage de données par un réseau social pose de nombreuses questions en matière de protection et de maitrise des données personnelles. Natasha Duarte, analyste politique travaillant sur les questions de confidentialité des données, de surveillance et de cybersécurité,  considère que ces données « devraient être considérées comme une information sensible sur la santé » et que « toute personne qui collecte ce type d’informations ou qui fait ce type de déductions sur des gens devrait les considérer comme des informations sensibles sur la santé et les traiter en tant que telles. ».  

En 2018, plusieurs chercheurs dont 40 psychiatres et 40 psychologues ont lancé le projet « Tree Hole Rescue » incarné par Huang Zhisheng, un chercheur du département d’informatique de la Vrije Universiteit d’Amsterdam, concentrant son activité autour de l’intelligence artificielle. Ce projet tire son nom d’une légende celte reprise ensuite comme expression en Chine pour désigner les lieux sur internet où les individus publient leurs secrets.  

L’expérience utilise une IA appelé « 004 » qui passe au peigne fin des milliers de messages et publications sur le réseau social Weibo, collecte puis analyse les données afin de repérer des signes permettant de considérer qu’un utilisateur présente un risque suicidaire important. Les messages sont triés et une note entre 0 et 10 est attribuée. En cas de risque important, c’est à dire à partir d’un score évalué à 5/6 l’équipe « Tree Hole 

Rescue » contacte l’individu et, en cas d’échec, les services de police.


L’application du programme fonctionne sur la base du volontariat. Il y a donc des limites à son efficacité mais c’est un mode de prévention prometteur. En effet, de son premier sauvetage en avril 2018 à la fin de l’année 2019 l’équipe de Huang Zhisheng a sauvé en Chine près de 700 personnes.  

• Les applications  

En 2018, les chercheurs de L’Institut national de la santé et de la recherche médicale ont développé l’application Stop Blues qui est défini comme « un dispositif numérique pour agir sur le mal-être psychologique ». Le but de cette application est de lutter contre des troubles plus sévères comme la dépression et ce à quoi elle peut mener, autrement dit l’automutilation et le suicide. Ce dispositif permet de faire ce que l’institut qualifie de prévention secondaire c’est à dire prendre en charge la souffrance avant tout passage à l’acte. Elle permet aussi d’évaluer le mal-être et de guider l’individu vers le professionnel adapté ce qui constitue un pas important en matière de e-santé. Outre le coté préventif immédiat, cette application permet, avec le consentement des individus, de collecter les données (ensuite anonymisées) pour faire avancer la recherche de L’Inserm dans ce domaine. Néanmoins, tout comme le projet « Tree Hole Rescue », ce dispositif ne peut fonctionner que sur la base du volontariat ce qui réduit largement son champ d’application.  

• Les assistants vocaux  

Le rapport de la NHS de février 2019 considère que des compétences numériques seront requises pour 80% des emplois liés au domaine de la santé d’ici à 2040. Dans ce dernier sont inclues des applications de l’intelligence artificielle via certains assistants conversationnels. Si Alexa et Google Home ne rempliront pas forcément ces fonctions, de nouveaux assistants devraient voir le jour. Ces derniers conçus dans un but d’assistance 

seraient installés chez les patients. Ils seraient capables, dès lors, d’avoir une conversation avec le patient pour estimer son état d’esprit, son degré d’anxiété et la sévérité des troubles, en analysant ses conversations quotidiennes, ses réflexions à voix haute, cela, afin d’alerter ses proches en cas de risque d’un geste suicidaire. Une fois de plus la limite reste le consentement ou le non consentement du patient et cela pose de nombreuses question en matière de traitement de ses données. Seront-elles toutes des données à caractère personnel sensibles (DCPS) et traitées comme telles ? Ou alors des données analysées au cas par cas et triées en simple données personnelles et DCPS ?  

Pour conclure, la société de l’information a peut être étendu le taux de suicide néanmoins certaines solutions proposées peuvent constituer une réponse appropriée dans la limite de la question de la protection des données personnelles et des normes les concernant.  

Emma DUCHESNE  
M2 Cyberjustice – Promotion 2019-2020  

Sources :  

  • Michel Toussignant et s., « The Impact of media coverage of the suicide of a wellknown Québec reporter : the case of Gaëtan Girouard », 2005. Consulté le 3 janvier 2020 : http://www.preventionsuicide.info/files/ Article_Tousignant_Mishara_%20al.pdf 

  • Facebook app « Building a Safer Community With New Suicide Prevention Tools », March 1, 2017. Consulté le 3 janvier 2020 : https://about.fb.com/news/2017/03/ buildinga- safer-community-with-new-suicide-prevention-tools/ 

  • Natasha Duarte, policy analyst in center of Democracy & Technology. consulté le 10 février 2020 : https://cdt.org/staff/natasha-duarte/ 

  • Irish Myths and Legends Index, « The Secret Of Labra ». Consulté le 10 février 

2020 : http://www.theemeraldisle.org/irish-myths-legends/the-secret-of-labra.htm 


  • Yitsing Wang « The Chinese suicides prevented by AI from afar » BBC World Service, 9 novembre 2019. Consulté le 10 février 2020 : https://www.bbc.com/news/ technology- 50314819?intlink_from_url=https://www.bbc.com/news/ technology&link_location=live- reporting-story 

  • Dr Tom Foley, Dr James Woodlard « The digital future of mental healthcare and its workforce : a report on a mental health stakeholder engagement to inform The Topol review ». Consulté le 12 février : https://topol.hee.nhs.uk 

  • The Topol Review « Preparing the healthcare workforce to deliver the digital future : 

An independent report on behalf of the Secretary of State for Health and Social 

Care » February 2019. Consulté le 12 février : https://topol.hee.nhs.uk 


  • Nuffield Council of Bioethics, « Briefing Note on Artificial Intelligence in healthcare and research », 2018. Consulté le 12 février 2020 : http://nuffieldbioethics.org/wpcontent/ uploads/Artificial-Intelligence-AI-in-healthcare-and-research.pdf 


Laisser un commentaire