L’essor de la psychiatrie dans le débat public, en particulier durant la crise sanitaire, a ravivé l’idée de combiner les systèmes de suivi de la santé mentale avec des intelligences artificielles (IA). Cette perspective a été renforcée par la prise de conscience selon laquelle les outils de santé numérique pourraient amorcer une « véritable révolution » des pratiques en matière de santé mentale, comme l’a souligné Emmanuel Macron. Toutefois, cette évolution soulève inévitablement des questionnements complexes liés au droit, à la bioéthique et à la philosophie.
Quand l’IA s’intéresse à la psychiatrie
L’association IA et psychiatrie n’est pas nouvelle. En effet, dès 1966, Joseph Weizenbaum, un informaticien germano-américain, élabora le premier chatbot dédié à la psychiatrie.
Dès lors, les tentatives en la matière se sont multipliées (allant de Parry à Headmed, BlueBox, Pysxpert, Methuselah ou encore Evince-I en passant par Elie et l’application Tess), au point qu’il existe actuellement plus d’une vingtaine de robots-thérapeutes validés par des études scientifiques en psychiatrie.
Grâce aux avancées de l’IA, ces agents conversationnels constituent aujourd’hui de véritables interfaces capables de collecter de la donnée, la fournir à des systèmes apprenants qui vont restituer le résultat sous forme d’une interaction verbale avec le sujet, voire même engendrer chez lui une action spécifique.
La rapidité dans l’exécution des tâches permet le développement d’un apprentissage autonome pour les chatbots, les robots ou tout autre système de détection de l’état de santé à travers la voix. Cela représente, aujourd’hui, une véritable promesse dans le champ de la santé mentale, notamment pour la prévention du suicide.
À ce titre, la plateforme Health Data Hub, lancée en novembre 2019 par le gouvernement français et permettant à des chercheurs d’utiliser des données du système national de santé pour entraîner des modèles d’IA, constitue une des prémisses de cette révolution à venir.
Bien qu’extérieurs au monde médical, les géants du numérique (notamment Google, Facebook, Amazon, Microsoft) se sont également impliqués dans la prise en charge du mal-être psychique et somatique à travers l’IA.
À titre d’exemple, Google soutient des recherches sur l’IA en santé, tandis que Facebook l’utilise pour évaluer le risque de suicide parmi ses utilisateurs.
Qu’en est-il de la portée juridique du recours à l’IA en psychiatrie ?
L’utilisation massive des données en psychiatrie soulève des problématiques juridiques variant selon la technique envisagée.
Les enjeux juridiques sont, en réalité, nombreux. Pour illustration, ils peuvent concerner la responsabilité des logiciels d’analyse en cas de défaillance ou, plus généralement, le statut juridique des outils d’analyse. Cependant, les questions liées à la collecte, au stockage et à la protection des données de santé suscitent actuellement une préoccupation considérable.
En effet, bien que l’IA soit révolutionnaire en la matière, des inquiétudes relatives à la collecte et au traitement massif des données des patients ainsi qu’aux conséquences de leur éventuel détournement surgissent.
Le Règlement Général sur la Protection des Données (RGPD), la Loi Informatique et Liberté (LIL) ainsi que le Code de la santé publique réglementent la protection des données de santé qui recouvrent les données relatives à la santé physique et mentale. Il convient, à cet égard, de préciser que la Commission Nationale de l’Informatique et des Libertés (CNIL) adopte une conception large de la notion en englobant les données de santé dites par nature, celles qui en deviennent « du fait de leur croisement avec d’autres données » ou en raison de leur destination.
Étant considérées comme des données personnelles sensibles, les données relatives à la santé bénéficient d’un niveau de protection plus élevé. En raison des risques potentiels pour les droits et libertés des individus, l’article 9 (1) du RGPD et l’article 6 de la LIL interdisent par principe le traitement de ces données.
Dans la mesure où une exception s’appliquerait, tout traitement devra être conforme aux principes du RGPD et être accompagné de mesures renforcées (telles que la réalisation d’une analyse d’impact, la documentation interne, des mesures de sécurité supplémentaires, ou encore le choix d’un hébergeur de données certifié, etc).
L’IA en psychiatrie, un « simple » rôle d’assistance
Malgré les nombreux avantages de ces technologies et les études démontrant que les patients pourraient développer de véritables relations thérapeutiques, au point de se sentir plus à l’aise avec un chatbot qu’avec un être humain, leur rôle demeure encore limité.
Pour l’heure, seul un psychiatre est capable, lors d’un entretien, de déceler chez un patient des signaux trahissant l’existence d’idées suicidaires ou de violences domestiques.
S’il se dessine « une nouvelle forme d’assistance aux praticiens sous la forme d’e-supervision, d’e-training ou même d’e-therapy » (tel que l’évoque Xavier Aimé dans son article intitulé « Intelligence artificielle et psychiatrie : noces d’or entre Eliza et Parry » ), il ressort que l’IA demeure limitée à son schéma préétabli.
Ces technologies prometteuses permettent de mieux surveiller et prendre en charge le patient. En revanche, elles ne sont pas encore prêtes à remplacer un psychiatre, seul capable de s’adapter à la réalité qu’il rencontre.
Lucia Berdeil
M2 Cyberjustice – Promotion 2022/2023
Sources :
- https://theconversation.com/une-ia-remplacera-t-elle-bientot-votre-psychiatre-188193
- https://www.wired.com/story/emmanuel-macron-talks-to-wired-about-frances-ai-strategy/
- https://theconversation.com/lintelligence-artificielle-va-t-elle-bouleverser-la-profession-medicale-140113
- https://www.cairn.info/revue-droit-sante-et-societe-2017-3-page-61.htm
- https://beta-lexis360-fr.scd-rproxy.u-strasbg.fr/encyclopedies/JurisClasseur_Administratif/AD0-TOCID/document/EF_SY-530404_0KPB?q=droit%20des%20données%20de%20santé%20en%20psychiatrie&doc_type=doctrine_synthese
- https://www.cnil.fr/fr/quest-ce-ce-quune-donnee-de-sante
- https://www.cambridge.org/core/journals/bjpsych-open/article/digital-mental-health-apps-and-the-therapeutic-alliance-initial-review/84D2BF70EEA1EAD7E681FF012651B55E
- https://www.cairn.info/revue-l-information-psychiatrique-2017-1-page-51.htm
- https://datalegaldrive.com/donnees-sante-aux-regles-specifiques-rgpd/