le Collectif MentalTech appelle à la « numericovigilance »

le Collectif MentalTech appelle à la « numericovigilance »
le Collectif MentalTech appelle à la « numericovigilance »

Alors que la santé mentale connaît une dégradation alarmante, le Collectif MentalTech publie ce jeudi 10 octobre, Journée mondiale de la santé mentale, un rapport mettant en lumière le rôle à la fois prometteur et inquiétant de l’IA dans ce domaine crucial. Coordonné par Alexia Adda, co-fondatrice de KLAVA Innovation, ce rapport met en lumière les avancées technologiques en santé mentale tout en soulevant des questions éthiques fondamentales.

MentalTech est le premier collectif français dédié à l’émergence de solutions numériques en santé mentale. Créée en mars 2022 par 7 membres fondateurs : Qare, hypnoVR, Kwit, moka.care, PetitBamBou, ResilEyes Therapeutics et Tricky, elle rassemble aujourd’hui plus d’une trentaine d’acteurs (startups, institutionnels, professionnels de santé) autour d’une même ambition : répondre à l’urgence de déployer des outils numériques éthiques dans la prévention et la prise en charge de la santé mentale.

Le collectif souligne l’augmentation des troubles de l’humeur ces dernières années, notamment chez les jeunes adultes, et la multiplication des consultations psychiatriques aux urgences, en raison d’erreurs de diagnostic et du tabou entourant la santé mentale. Face à ces enjeux, l’émergence des outils numériques devient indispensable pour améliorer la précision des diagnostics, personnaliser les traitements et faciliter l’accès aux soins.

L’IA : un outil de transformation

Ces dernières années, l’IA a fait des progrès significatifs, proposant des solutions innovantes dans divers domaines, dont la santé mentale. Selon le rapport, quatre principaux cadres d’intervention en matière d’IA émergent :

  • Prédiction de valeur : L’IA peut prédire les états mentaux en analysant de grandes quantités de données, détectant ainsi les émotions dans les vidéos ou les conversations textuelles avant l’apparition de symptômes graves ;
  • Génération de dialogues : Les chatbots peuvent interagir directement avec les patients, offrant ainsi un soutien continu et personnalisé. Ils peuvent analyser en temps réel l’état psychologique des individus à travers leurs réponses verbales ou écrites, et apporter un premier niveau d’assistance ou de recommandations ;
  • Création d’activités thérapeutiques : L’IA peut générer des programmes adaptés aux besoins spécifiques des patients, notamment des jeux sérieux et des exercices de relaxation. La réalité virtuelle peut aider à traiter les phobies ou
    trouble de stress post-traumatique en simulant des environnements thérapeutiques contrôlés ;
  • Recommandation de ressources : des recommandations pertinentes peuvent être faites aux patients (articles ou vidéos), les aidant à mieux comprendre et gérer leurs symptômes, et aux professionnels de santé (protocoles de soins) en fonction des besoins exprimés ou détectés.

Ces technologies visent à améliorer les diagnostics et à créer un système de santé plus inclusif, comblant ainsi les lacunes en matière d’accès aux soins de santé mentale.

Des défis éthiques à relever

Cependant, l’utilisation croissante de l’IA en santé mentale soulève d’importants défis éthiques. La protection des données sensibles des patients est une préoccupation majeure, d’autant plus que l’IA s’appuie souvent sur de vastes ensembles de données personnelles. En outre, le rapport met en garde contre le risque de déshumanisation des soins, soulignant la nécessité d’une validation humaine des décisions prises par l’IA.

Un autre défi réside dans l’explicabilité des algorithmes. Souvent qualifiés de « boîtes noires », ces modèles peuvent prendre des décisions complexes sans que leur logique soit toujours compréhensible pour les médecins, d’où l’importance d’une meilleure transparence.

Règlementation européenne

Les applications de l’IA dans le domaine de la santé sont souvent considérées comme à haut risque, et les nouvelles exigences de la loi sur l’IA s’ajoutent aux réglementations existantes relatives aux dispositifs médicaux.

Le collectif rappelle que les éditeurs d’IA doivent suivre six étapes pour se conformer aux nouvelles normes : définir le cadre d’utilisation, obtenir le consentement des patients pour la collecte de données, évaluer l’impact de l’IA, anticiper les biais, assurer la conformité réglementaire et établir une gouvernance adaptée.

Appel à la numériquevigilance

Pour faire face à ces enjeux, le Collectif MentalTech appelle à la création d’un cadre de « numériquevigilance ». Inspiré du modèle de pharmacovigilance, ce cadre vise à garantir la sécurité des patients tout en détectant rapidement les abus potentiels des dispositifs d’IA. Selon lui, cela permettrait de maintenir un équilibre entre l’innovation technologique et le respect des principes éthiques fondamentaux dans la gestion de la santé mentale.

Le collectif identifie dix axes majeurs pour ce cadre :

1. Préparation d’une notice d’information : créer un document explicatif à destination des utilisateurs, détaillant le fonctionnement de l’IA, ses avantages, ses risques, la population cible et les mesures en cas de dysfonctionnement, avec un langage accessible.

2. La création d’un comité scientifique multidisciplinaire : former un comité composé d’au moins un médecin, un expert en IA, un éthicien et un spécialiste de la réglementation pour superviser le développement et l’évaluation des systèmes d’IA.

3. L’implication des professionnels de santé : impliquer les professionnels de santé dans le processus de développement de l’IA pour garantir la robustesse et la fiabilité des systèmes.

4. Formation des professionnels de santé : proposer des formations sur l’IA, ses applications en médecine et les principes d’évaluation des systèmes d’apprentissage automatique.

5. Installation personnalisée pour les utilisateurs : adapter l’usage des outils d’IA aux préoccupations des utilisateurs, en développant des protocoles spécifiques à chaque cas d’usage.

6. L’absence de conflits d’intérêts : s’assurer qu’il n’y a pas de conflits d’intérêts entre les entités impliquées dans la détection et le traitement des troubles.

7. Adapter les métriques d’évaluation : ajuster les métriques d’évaluation des algorithmes en fonction du cas d’usage et garantir la transparence et l’efficacité des mécanismes de sécurité.

8. Retracer les décisions de l’IA : documenter le processus décisionnel de l’IA, en expliquant les résultats générés, tout en prévoyant des exceptions lorsque des bénéfices médicaux substantiels peuvent être démontrés.

9. Sélection de la population en formation : s’assurer de la représentativité des données utilisées pour l’entraînement de l’IA, et réaliser des études complémentaires pour éviter les biais algorithmiques si nécessaire.

10. Collecte de données parcimonieuse : suivez les recommandations de la CNIL en ne collectant que les données essentielles, afin de tester l’IA de manière pragmatique et efficace.

 
For Latest Updates Follow us on Google News
 

PREV Disponibilité des médicaments en ville et à l’hôpital
NEXT “J’ai perdu près de 1 000 euros et je suis sûre que je ne suis pas la seule mère dans cette situation”