L’IA émerge dans la recherche et l’industrie biomédicale… pour le meilleur ? – rts.ch – .

L’IA émerge dans la recherche et l’industrie biomédicale… pour le meilleur ? – rts.ch – .
L’IA émerge dans la recherche et l’industrie biomédicale… pour le meilleur ? – rts.ch – .

Lancé fin avril à Bâle par une startup suisse, un nouveau logiciel propose d’utiliser l’intelligence artificielle pour accélérer et optimiser le développement des essais cliniques. Pleine de promesses, l’arrivée de ces technologies dans des domaines qui touchent à notre santé soulève néanmoins plusieurs questions éthiques.

L’IA promet de transformer de nombreux domaines d’activité dans les années à venir et le monde scientifique ne fait pas exception. Si l’IA générative et ses usages parfois impressionnants sont sur toutes les lèvres depuis le lancement de ChatGPT fin 2022, le monde de la recherche tente en réalité d’en tirer le meilleur parti depuis plusieurs années.

>> Lire : De nouvelles protéines découvertes grâce à l’intelligence artificielle

Le fait de pouvoir désormais communiquer avec ce logiciel dans un langage commun élargit encore le champ des possibles. Il a également fait l’objet deune étude publié en février par une équipe de l’EPFL, qui démontrait une utilisation très simple du GPT-3 en chimie.

« Nous avons montré que cette approche était beaucoup plus simple (…) car on peut réaliser une maquette en cinq minutes. Cela a été une véritable surprise que cela ait si bien fonctionné », explique Berend Smit, codirecteur de l’étude. “Ce n’est pas parfait, mais c’est très utile, car il n’est pas nécessaire de posséder beaucoup de connaissances.”

Apprendre des échecs comme des succès

Selon ce professeur de génie chimique, il ne fait aucun doute que ces outils transformeront la façon dont nous pensons la science, et particulièrement la façon dont nous prenons en compte les données négatives. Car comme dans beaucoup de domaines, « la tradition en chimie est de publier des résultats positifs, des recettes qui fonctionnent », explique-t-il. “Mais avec cette méthode, on apprend aussi de tout ce qui ne marche pas, ou pas complètement.”

« Cela va donc complètement changer la façon dont les gens perçoivent les données », poursuit-il. «Tous les chimistes apprennent à publier uniquement les choses qu’ils considèrent comme importantes. Parce que si on publie tout, on se perd dans les détails, on ne peut rien faire. Cela change complètement avec le apprentissage automatique. Nous devons publier toutes les données et laisser le programme décider si c’est important ou non.

>> Écoutez également cet entretien avec Berend Smit sur les leçons tirées des expériences ratées :

Les riches enseignements des expériences ratées / QED / 11 min. / 5 février 2019

Ces IA pourraient donc permettre aux scientifiques d’apprendre autant de leurs échecs que de leurs réussites. Une perspective réjouissante dans le domaine de la santé, où de nombreux médicaments ne parviennent pas à prouver leur efficacité.

Protocole IA, assistant de recherche 2.0

C’est en partie sur cette idée que se base Protocol AI, un logiciel lancé par la startup suisse Riskclick qui permet d’agréger beaucoup plus rapidement toute la littérature scientifique, d’identifier différents paramètres et d’écrire, grâce au modèle du langage, des protocoles qui font parfois plusieurs centaines de pages. Des documents qui mettent souvent plus d’un an à être rédigés en temps normal.

« L’idée est de fournir à l’utilisateur toutes les données historiques existantes. Fondamentalement, vous allez découper ces données avec différents paramètres. En faisant cela, vous allez retrouver quelques centaines de protocoles standards qui correspondent exactement à vos objectifs, et vous pourrez étudier ce qu’ils ont réussi à faire, ce qu’ils n’ont pas fait et pourquoi », explique Quentin Haas, docteur en immunologie et directeur scientifique chez Riskclick.

C’est un outil de gestion. Et je ne pense pas que lorsqu’on a introduit des copilotes dans les avions, les aviateurs ont disparu.

Quentin Haas, CSO Riskclick

« L’IA va utiliser ces protocoles standards comme modèles pour vous proposer des alternatives qui paraissent cohérentes par rapport à leur réussite ou non. Manuellement, il faudrait lire toute la littérature, classer les documents… Vous avez 10 ans, alors que l’IA le fait en quelques minutes », poursuit-il.

Le PDG de Riskclick a cherché à convaincre les investisseurs et autres représentants de l’industrie pharmaceutique lors du lancement officiel de Protocol AI, mardi 23 avril à Bâle. [RTS – Pierrik Jordan]

Cet outil pourrait donc permettre d’économiser beaucoup de temps et d’argent. Le chercheur insiste cependant sur le fait qu’il n’est pas autonome. « Il faut impérativement qu’il y ait un humain derrière, une IA est incapable de gérer la stratégie d’un essai clinique », souligne-t-il. “Créer une échelle de temps, une échelle financière, une échelle de probabilité de réussite, intégrer les bonnes personnes pour rendre les paramètres cohérents et applicables dans un hôpital… A moins d’une révolution majeure prochainement, une IA n’en sera pas capable.”

« Si vous donnez quelque chose de mauvais à une IA, quelque chose de mauvais en sortira », résume-t-il. « Le produit s’appelle ‘copilote’. C’est un outil de pilotage. Et je ne pense pas que lorsque nous avons introduit des copilotes dans les avions, les aviateurs aient disparu.»

Questions éthiques et philosophiques

Riskclick se targue de marquer « un tournant dans l’industrie pharmaceutique », une promesse qui a déjà convaincu la société francophone Debiopharm. Et aux mains d’une industrie essentielle à notre santé mais souvent pointée du doigt par ses détracteurs pour ses dérives mercantiles, l’utilisation de ces nouveaux algorithmes pose forcément question.

>> Ecoutez l’interview de Cédric Odje, représentant du fonds d’investissement Debiopharm :

Entretien complet avec Cédric Odje / CQFD / 1 min. / Jeudi à 10h13

Si les spécialistes de l’éthique biomédicale ou de l’IA saluent le développement d’un outil prometteur, ils soulèvent des enjeux importants en termes de transparence, de traçabilité des connaissances, de responsabilité dans la prise de décision, de préservation des compétences humaines ou réglementaires.

La transparence, une condition non négociable

« Il y a une question de véracité dans l’attribution du crédit à la science. Il n’est pas question d’utiliser l’intelligence artificielle sans la révéler», soulève Samia Hürst, bioéthicienne à l’Université de Genève et membre du Comité national d’éthique de la médecine humaine.

« De plus en plus de revues exigent que les contributions précises des différents auteurs soient détaillées lors de la soumission d’un article. Si une IA effectue certaines étapes, il pourrait être assez simple d’avoir la même exigence », explique-t-elle. Avec une réserve cependant : « Si l’on attribue mal les contributions au sein d’une équipe humaine, les personnes trompées peuvent se défendre, ce qui n’est pas le cas de l’intelligence artificielle. Il faudra donc de nouveaux mécanismes pour garantir cette transparence.»

Il existe un lien direct entre transparence et démocratie

Thomas Souverain, chercheur en philosophie de l’IA

La transparence est aussi le cheval de bataille de Thomas Souverain, doctorant en éthique et philosophie de l’IA à l’Institut Jean Nicod de l’École nationale supérieure (ENS) à Paris. Dans le cadre de sa thèse, il travaille sur les « boîtes noires » que constitue l’intelligence artificielle aux yeux de leurs utilisateurs et du public.

« Présenter aux citoyens le fait que le processus d’essais cliniques a été mené à l’aide de l’IA posera en soi un défi d’acceptation. Il existe un lien direct entre transparence et démocratie », estime-t-il.

>> Lire sur le même sujet : Asma Mhalla : « Les géants de la tech ont une aversion idéologique assez viscérale pour la démocratie »

Il note qu’à l’heure actuelle, la plupart des modèles sont pré-entraînés par une poignée d’entreprises car cela nécessite une énorme puissance de calcul. “Il y a donc une première boîte noire introduite par le fait qu’on ne sait pas exactement sur quelles données ces premiers modèles ont été entraînés”, prévient-il.

Et même si ces données proviennent majoritairement d’internet, « on peut se demander si la synthèse de ce qu’on trouve sur internet est une vérité. Pas nécessairement. Cette synthèse n’est jamais neutre, c’est une sorte de moyenne de ce que les humains y ont écrit jusqu’à présent », souligne-t-il.

A ce sujet, Samia Hürst évoque par exemple la différence entre hommes et femmes dans la recherche médicale, un biais « qui se corrige actuellement lentement ». « L’intelligence artificielle pourrait reproduire ce biais. Mais si ce type de problème est connu, il faut pouvoir le corriger lors du montage et de la révision éthique», tempère-t-elle.

Choisir les connaissances à préserver

Comme tous les nouveaux outils, l’IA fait également courir le risque de voir certaines compétences humaines s’effondrer. En l’occurrence, des connaissances ou savoir-faire scientifiques. « Il y a naturellement une profonde réorganisation des savoirs en cours au sein de la société », souligne Aïda Elamrani, également doctorante à l’Institut Jean Nicod.

« L’important est de ne pas perdre complètement ce savoir-faire et ces connaissances. C’est à nous de décider collectivement quels savoirs et savoir-faire nous souhaitons faire reconnaître afin de les préserver.

>> Lire aussi : Aïda Elamrani : « L’avènement de l’IA amène des débats éthiques à l’échelle mondiale »

Les deux spécialistes des questions philosophiques autour de l’IA évoquent également le risque de « biais d’automatisation », qui consiste à reproduire aveuglément des biais algorithmiques en considérant que l’intelligence artificielle est plus objective et fiable que l’humain.

« C’est vrai qu’avec une industrie où il y a des enjeux financiers très importants, il y a un risque de vouloir optimiser les coûts en disant qu’on a des protocoles plus neutres, et réduire le coût de la surveillance », souligne Aïda Elamrani. « C’est une tendance générale dans nos sociétés, surtout à l’ère numérique, de substituer le capital au travail. Ce n’est pas un scoop, c’est l’un des principes du capitalisme.»

Ne prenez pas la responsabilité des humains

De nombreux paramètres en amont peut ainsi biaiser les choix de l’IA. « Avoir une IA la plus performante possible n’exclut pas que quelqu’un doive être responsable de la décision qui est prise », note Thomas Souverain. Dans ces conditions, ces technologies ne sont pas intrinsèquement inquiétantes pour peu qu’elles s’accompagnent d’une surveillance.

>> Voir aussi notre série sur l’IA dans différents domaines : L’intelligence artificielle, un outil d’aide, mais qui ne remplace pas l’humain

Ils pourraient toutefois pousser à la création de nouveaux mécanismes de contrôle. Samia Hürst évoque la création d’une autorité internationale d’autorisation de commercialisation des logiciels, à l’instar des autorités d’autorisation des médicaments. « Il existe des logiciels qui peuvent nous aider beaucoup et d’autres qui peuvent nous faire beaucoup de mal. Nous ne pouvons pas lui donner carte blanche », dit-elle. « L’IA est comme les produits chimiques : certains sont excellents, d’autres sont terribles. Nous avons donc besoin de gens qui connaissent le problème pour régler le problème.

Un bilan globalement optimiste

Et si ces garde-fous sont respectés, l’intelligence artificielle pourrait s’avérer pleine de promesses dans le domaine de la recherche clinique. Outre les revues de littérature et le copilotage d’essais cliniques, les modèles linguistiques pourraient contribuer à mieux vulgariser des concepts complexes, notamment auprès des personnes participant à des essais médicaux. Au lieu de susciter davantage de méfiance, l’IA pourrait ainsi contribuer à une meilleure acceptation de la science.

Enfin, Aïda Elamrani rappelle également que la délégation de tâches répétitives à des machines, c’est aussi libérer plus de temps libre pour des activités purement humaines, souvent moins pénibles ou aliénantes.

Pierrik Jordan

 
For Latest Updates Follow us on Google News
 

PREV ACTIONS INDIENNES – Les actions indiennes devraient être modérées à l’ouverture
NEXT la sécurité de la billetterie en ligne compromise, une fan de Coldplay se fait voler ses billets