Confier ses problèmes de santé mentale à une IA, une tendance en plein essor – rts.ch

Confier ses problèmes de santé mentale à une IA, une tendance en plein essor – rts.ch
Confier ses problèmes de santé mentale à une IA, une tendance en plein essor – rts.ch

À l’ère de l’intelligence artificielle, de plus en plus de jeunes ont recours à l’IA « thérapeutique », sous la forme de chatbots internet ou d’applications pour smartphone. Ils présentent des avantages, mais le risque d’abus est réel, préviennent les experts.

Un psychologue dans votre poche, à portée de clic. Souvent gratuits ou peu coûteux, les agents conversationnels (chatbots) sont disponibles 7j/7 et 24h/24. L’écoute est immédiate, un avantage par rapport aux délais de consultation souvent longs avec des spécialistes de santé.

S’ils ne remplacent pas le travail d’un professionnel et présentent des dangers, ils peuvent aussi apporter un réel soutien dans la gestion de notre santé mentale.

Lien « spécial » développé

Les jeunes privilégient particulièrement le chatbot thérapeutique Psychologist, créé par un étudiant en psychologie. Il affiche plus de 115 millions de messages. Expérimenté, ses réponses semblent assez convaincantes et semblent empathiques. Lui écrivant qu’on se sent seul et triste, il répond : « C’est très difficile de ressentir ça. La tristesse peut parfois devenir un élément durable de notre vie et il peut être difficile d’y échapper. Pose ensuite plusieurs questions pour améliorer sa compréhension de l’état de l’utilisateur qui converse avec lui.

Une partie de la dimension émotionnelle peut être absente, mais la partie « se sentir soutenu et compris » peut être présente

Yasser Khazaal, professeur de psychiatrie des addictions à l’UNIL

Dans les forums de discussion, certains utilisateurs évoquent même le lien « particulier » qu’ils ont développé avec ce chatbot, une évolution qui ne surprend pas le professeur de psychiatrie des addictions à l’Université de Lausanne Yasser Khazaal. “Une partie de la dimension émotionnelle manque peut-être, mais la partie ‘se sentir soutenu et compris’ est peut-être présente”, expliquait-il lundi dans La Matinale de la RTS.

Rôle complémentaire à celui du spécialiste

C’est surtout lorsqu’elles sont spécialisées que ces IA peuvent s’avérer utiles, estime Yasser Khazaal. Il donne l’exemple d’un chatbot qui pourrait être utilisé spécifiquement lors d’une crise de panique et qui aiderait l’utilisateur à faire un certain nombre d’exercices. Une nouvelle interactivité thérapeutique, en somme.

Ce rôle complémentaire à celui du spécialiste est aussi celui mis en avant par la chercheuse du département de psychiatrie et des sciences du comportement de l’université de Stanford, Shannon Stirman. Son équipe développe un chatbot pour aider les personnes qui suivent une thérapie cognitivo-comportementale pour le trouble de stress post-traumatique.

Des mesures de sécurité doivent être mises en place pour que le chatbot ne soit pas la seule Source de support

Shannon Stirman, chercheuse au Département de psychiatrie et des sciences du comportement de l’Université de Stanford

« Plutôt que de remplacer la thérapie, je pense que nous pourrions utiliser ces outils pour accompagner les personnes entre les séances. De cette façon, le thérapeute serait toujours au courant et pourrait avoir une visibilité sur ce qui se passe. « Les patients pourraient ainsi obtenir un feedback et un soutien que le thérapeute ne peut pas leur apporter. Mais des mesures de sécurité doivent être mises en place pour que le chatbot ne soit pas la seule Source de soutien », a-t-elle prévenu. « Les utilisateurs doivent maintenir un contact régulier avec leur thérapeute. »

>> Lire aussi : Remplacer les médecins urgentistes par ChatGPT ? Pas tout de suite!

Déviations possibles

Outre le risque de distanciation entre patients et spécialistes de santé mentale, certains psychologues s’inquiètent d’autres dérives possibles, notamment la possibilité que des IA thérapeutiques prodiguent des conseils inappropriés, voire dangereux. Cela a déjà été le cas avec Tessa, un chatbot proposé par l’American Association for Eating Disorders (NEDA) : il conseillait à un utilisateur de perdre du poids, ce qui était contre-indiqué. Le chatbot a depuis été déconnecté.

« Nous devons toujours faire attention à la Source des données utilisées par ces chatbots, à leur précision et à leur applicabilité aux personnes qui les demandent. C’est quelque chose qui doit être abordé avec prudence », convient Shannon Stirman. « Nous devons procéder à des évaluations plus approfondies de la sécurité, de la confidentialité, de l’efficacité de ces outils et de l’exactitude des informations qu’ils fournissent. »

>> Lire aussi : L’IA générative en santé : une révolution imminente

Sujet radio : Miruna Coca-Cozma

Adaptation web : Vincent Cherpillod

 
For Latest Updates Follow us on Google News
 

NEXT Le tribunal du travail suspend les grèves chez le plus grand producteur de sucre d’Australie.