« L’intelligence artificielle a véritablement fait son entrée dans le domaine de la santé mentale ces dernières années, avec de nombreuses expérimentations (notamment) des systèmes de recommandation de ressources thérapeutiques, des outils d’assistance, ainsi que des technologies de reconnaissance des émotions.note la psychothérapeute Sabine Allouchery, membre du collectif français MentalTech, dans une interview accordée à Usbek et Rica en octobre dernier. Ces innovations permettent de suivre, avec plus ou moins de détails, l’état de santé mentale des individus. Certains permettent même d’évaluer, dans une certaine mesure, l’efficacité des traitements. »
Thérapeutes IA
Pour pousser l’expérimentation un peu plus loin, les créateurs de MeMind souhaitent développer une fonction de thérapie par chatbot. ” Lorsque les questions viennent d’une autre personne, les gens peuvent se sentir jugés, mais lorsqu’elles viennent d’un téléphone, nous nous sentons souvent plus à l’aise avec la machine. », explique le psychiatre Enrique Baca, qui a contribué au développement de l’application.
Mais le chatbot devra encore faire ses preuves avant d’être déployé à grande échelle. Car les « thérapeutes IA » sont sous le feu des critiques depuis qu’une mère accuse une intelligence artificielle d’avoir poussé son fils de 14 ans au suicide. L’adolescente américaine, amoureuse d’un chatbot façonné à l’image d’une héroïne de Game of Thrones sur la plateforme Character.ai, s’est suicidé dans l’espoir de la rejoindre. En octobre dernier, sa mère a porté plainte contre l’entreprise, l’accusant d’avoir programmé son chatbot pour qu’il « se présente faussement comme une personne réelle, un psychothérapeute agréé et un amant adulte, ce qui a finalement conduit (son fils) à ne plus vouloir vivre dehors » de ce monde artificiel.
Au-delà des questions liées à l’influence psychologique et à la protection des données des patients, certains professionnels de santé soulignent que des applications comme MeMind ne constituent qu’une solution complémentaire et temporaire. ” L’IA n’est pas là pour remplacer les humains. Cela n’a jamais été le butprévenait le développeur indépendant Arnaud Bressot, consultant en IA en santé mentale, membre du collectif français MentalTech dans nos colonnes en octobre dernier. C’est la responsabilité du médecin de diagnostiquer et de traiter ses patients, pas l’IA. ».
Santé