Sur la plateforme Doctolib, un assistant virtuel peut désormais écouter les consultations, retranscrire les commentaires et aider les médecins en leur fournissant une synthèse.
Lorsque vous allez chez le médecin, sachez que désormais tout ce que vous dites peut être écouté par l’intelligence artificielle… La plateforme Doctolib vient de lancer un « assistant virtuel » qui pourrait révolutionner les consultations médicales. Les médecins qui l’utilisent doivent demander le consentement du patient. Le principe de cet « assistant de consultation », lancé il y a quelques jours, est le suivant : tout ce que vous direz à votre médecin sera écouté, retranscrit et analysé en temps réel par l’IA, qui fera le tri dans ce que vous dites, la raison. pour la consultation, vos antécédents éventuels, votre mode de vie, les traitements en cours… A la fin de l’échange, l’assistant virtuel vous fera une courte synthèse. Et toutes ces données alimenteront automatiquement le dossier du patient.
Le bénéfice pour le médecin : la possibilité de se concentrer pleinement sur ce qu’on lui dit, plus besoin de prendre des notes, moins de crainte de ne pas avoir noté un élément essentiel… Et puis, un gain de temps considérable. Et donc plus de patients vus en une journée. Quand on sait que 40% du temps des médecins est consacré à des tâches à faible valeur ajoutée, la paperasse, les rapports médicaux, l’administration, les réponses aux mails, si on peut déléguer ça à l’IA, c’est plus de temps pour le médecin de s’occuper des patients, qui est toujours le cœur de son métier.
L’outil a été testé pendant plusieurs mois auprès de 350 médecins. Il est déployé à grande échelle depuis plusieurs jours pour les médecins généralistes, et il le sera progressivement pour les spécialistes. La question de l’acceptabilité de ce type d’outil se posera également, avec des craintes liées à la confidentialité des données collectées, même si Doctolib assure que rien n’est enregistré et qu’aucun élément n’est stocké, car les Conversations sont supprimées après la consultation. Est-ce que cela suffira à rassurer les patients ?
Nous ne pouvons pas arrêter le progrès : une IA qui écoute les conversations du médecin – 28/10
Attention aux risques liés à l’IA
C’est un premier pas, mais l’IA dans le domaine de la consultation médicale peut aller bien plus loin. L’écoute et la transcription, c’est bien, mais la prochaine étape serait que l’IA soit également capable de poser un diagnostic. Cette IA, qui synthétise aujourd’hui ce que je dis, pourrait-elle aussi réaliser un diagnostic qui pourrait conforter ou contredire celui du médecin par exemple ? Nous avons déjà réalisé des tests dans lesquels, sur la base des symptômes, ChatGPT était meilleur que les médecins humains pour poser un diagnostic. L’idée étant d’utiliser l’IA comme support supplémentaire pour éviter toute erreur, diagnostic, contre-indication médicamenteuse, etc. Ce n’est pas facile à accepter pour les médecins, car cela remet un peu en cause leur position d’autorité, mais on y arrivera petit à petit, ne serait-ce que parce que c’est dans l’intérêt du patient. D’ailleurs, si l’on va plus loin, on rêve aussi d’un bouton sur Doctolib qui indiquerait si le médecin que l’on va consulter utilise l’IA, et propose donc un œil numérique en plus du sien.
Mais nous risquons d’atteindre rapidement des personnes qui s’auto-diagnostiqueront grâce à ChatGPT et n’iront plus chez le médecin. Et puis ça devient dangereux… Il faut absolument l’éviter. Comme dans tous les domaines, l’IA a une fâcheuse tendance à halluciner, à répondre à n’importe quoi quand elle n’a pas la réponse à une question… Dans une autre étude, ChatGPT s’est vu poser des questions très précises sur la prévention des risques cardiovasculaires. Elle a répondu correctement à 21 questions sur 25. Mais dans les quatre cas où elle s’est trompée, elle a donné des conseils qui auraient potentiellement pu tuer un patient ! Mêmes résultats aux questions posées sur le dépistage du cancer du sein, 22 sur 25. Son taux de bonnes réponses est impressionnant, mais quand elle se trompe, elle dit des bêtises. Elle va jusqu’à inventer de faux articles et de fausses références scientifiques. Et dans un domaine aussi sensible que la santé, cela n’est clairement pas acceptable.