Une partie de cet article a été écrite en utilisant de bons vieux cerveaux humains !
Après le monde enseignant, le monde de la recherche est également bousculé par l’arrivée de l’intelligence artificielle (IA). Les chercheurs doivent désormais examiner les articles scientifiques « rédigés » par leurs pairs, mais qui peuvent avoir été rédigés en grande partie par l’IA. Les étudiants diplômés peuvent utiliser l’IA pour les aider à rédiger une partie de leur mémoire de maîtrise et de leur thèse de doctorat. Comment réagir ?
Nous sommes deux chercheurs de l’Institut national de la recherche scientifique (INRS), dont l’un utilise et développe des algorithmes d’IA dans le cadre de ses recherches depuis 2004 – principalement pour le traitement des données géoscientifiques et l’autre les introduit progressivement afin de maximiser leurs efforts pour concilier toutes les sphères de la vie académique. Nous souhaitons avant tout informer nos pairs que ces outils existent.
Peu de politiques universitaires existantes
Peu d’universités ont publié des politiques claires sur l’utilisation de l’IA dans la recherche. Depuis la sortie officielle de ChatGPT d’OpenAI en 2022, nous sommes cependant confrontés à un raz-de-marée important pour la communauté scientifique, sur lequel il est important de réfléchir. Cela dit, plus le temps passe, plus le fossé se creuse entre les chercheurs qui l’utilisent et ceux qui ne l’utilisent pas encore.
Parmi les universités qui ont commencé à réfléchir à des politiques régissant l’utilisation de l’IA générative se trouve le Massachusetts Institute of Technology. L’une des principales recommandations formulées par l’université est de déclarer quand et quelle IA a été utilisée lors de l’idéation, de la recherche et de la rédaction.
Déjà des milliers d’abonnés à la newsletter La Conversation. Et toi ? Abonnez-vous dès aujourd’hui à notre newsletter pour mieux comprendre les grands enjeux contemporains.
Contrairement aux ressources informatiques classiques (Stackoverflow, Google, etc.), il semble y avoir un tabou dans la reconnaissance de l’utilisation d’un algorithme d’IA générative dans les références ou les remerciements d’articles et de rapports scientifiques.
Le gain d’efficacité est surprenant
Tout comme l’accès aux ordinateurs personnels a révolutionné la productivité, l’arrivée de l’IA générative a accru la productivité dans certains domaines de recherche.
L’IA générative la plus connue est ChatGPT et elle possède plusieurs « sous-GPT », dont « ScholarGPT ». Ces derniers peuvent réaliser des revues de littérature sur des sujets donnés. Il peut évaluer des articles, des mémoires, des thèses, des livres. Il peut examiner les demandes de financement. Il peut synthétiser carrière de la vie et rédiger des lettres de recommandation.
Le sous-GPT « Logo Creator » peut générer rapidement des logos, tandis que le sous-GPT « DALL-E » peut générer des diagrammes et des illustrations de qualité. Comme ces différents programmes sont tous liés entre eux, plus besoin de copier-coller de l’un à l’autre.
L’IA « Perplexité », quant à elle, est capable de fournir des réponses élaborées basées sur plusieurs IA génératives. En répondant à une question posée, Perplexity fournit également les références qu’il a utilisées pour générer sa réponse.
Est-ce éthique ? Est-ce juste ?
Nous pensons qu’il est important d’utiliser cette nouvelle technologie avec précaution et qu’elle nécessite toujours un cerveau humain pour vérifier les réponses, car pour l’instant, les IA génératives sont des oracles basés sur la probabilité du mot suivant dans une phrase. Ils ne connaissent donc pas le cadre général de la question. Des travaux sont menés dans ce sens pour ajouter du contexte à la réponse comme dans ChatGPT 10.
La plupart des programmeurs utilisent l’IA générative car elle fait partie intégrante des environnements de programmation comme Google Colab, VSCode ou PyCharm. Il est désormais difficile de différencier quelle ligne a été entièrement écrite par un humain ou s’il a utilisé les suggestions de son IA préférée.
La plupart des revues scientifiques et des universités ont commencé à se remettre en question pour élaborer des politiques visant à réglementer l’utilisation de l’IA. Mais dans la mesure où l’outil existe, faut-il attendre que des politiques soient mises en place avant de l’utiliser ?
Comment ChatGPT peut optimiser le travail des chercheurs
Le 3 décembre 2024, nous avons posé cette question à ChatGPT : « Pouvez-vous nous écrire un texte qui explique comment ChatGPT peut optimiser le travail des chercheurs académiques ? » Voici sa réponse :
L’essor de l’intelligence artificielle (IA) offre aux chercheurs universitaires des opportunités sans précédent pour optimiser leurs activités de recherche, d’analyse et de communication scientifique. ChatGPT, un modèle avancé de traitement du langage naturel, peut agir comme un assistant polyvalent pour les chercheurs, leur permettant de gagner du temps, d’améliorer la qualité de leurs résultats et de favoriser l’innovation.
-1. Aide à la recherche documentaire
ChatGPT peut fournir rapidement des résumés de concepts, des résumés d’articles scientifiques ou des informations contextuelles sur un sujet donné. Cela permet de : a) Identifier les tendances actuelles de la recherche ; b) Comprendre rapidement les domaines interdisciplinaires et c) Trouver des références pertinentes (même si elles doivent être vérifiées dans des bases de données comme PubMed ou Scopus).
Exemple : Un chercheur en écotoxicologie peut demander un aperçu des dernières avancées dans l’étude des perturbateurs endocriniens et obtenir une synthèse des principales études.
2. Rédaction et révision de manuscrits
ChatGPT peut aider à la rédaction d’articles, de rapports ou de présentations : a) Rédaction préliminaire : générer un projet d’introduction ou de discussion basé sur les résultats fournis ; b) Amélioration linguistique : Reformuler des phrases complexes pour les rendre plus claires et concises et c) Traduction scientifique : Traduire des articles ou des résumés dans d’autres langues tout en conservant l’exactitude scientifique.
Attention : L’utilisation de ChatGPT pour rédiger des parties de manuscrits scientifiques doit être conforme aux directives éthiques des revues académiques.
3. Analyse et visualisation des données
Bien que ChatGPT ne remplace pas les outils spécialisés comme R ou Python pour des analyses quantitatives complexes, il peut : a) Expliquer des concepts statistiques ou des modèles mathématiques ; b) Proposer des approches pour analyser un ensemble de données et c) Aider à l’interprétation des résultats.
Exemple : Si un chercheur dispose de données sur les biomarqueurs de stress chez les poissons exposés à des contaminants, ChatGPT peut suggérer des méthodes pour identifier des corrélations significatives.
4. Optimisation de la communication scientifique
La communication est un pilier de la recherche, et ChatGPT peut être utilisé pour : a) Développer la vulgarisation scientifique auprès d’un public non spécialisé ; b) Préparer des diapositives, des scripts ou des affiches de conférence et c) Formuler des réponses aux commentaires des évaluateurs lors de la révision des articles.
Exemple : Pour une présentation destinée au grand public, ChatGPT peut reformuler des termes techniques pour les rendre accessibles.
5. Génération d’idées et brainstorming
ChatGPT peut être utilisé comme outil de brainstorming pour générer des idées innovantes ou explorer de nouvelles hypothèses. Par exemple : a) Proposer des approches expérimentales alternatives ; b) Identifier les lacunes potentielles dans la littérature existante et c) Suggérer des collaborations interdisciplinaires.
6. Gain de temps et automatisation
En automatisant les tâches répétitives, ChatGPT permet aux chercheurs de se concentrer sur des activités à forte valeur ajoutée : a) Réponses standardisées aux emails académiques ; b) Rédaction de lettres de motivation pour des bourses ou des projets et c) Création rapide de plans de cours ou de matériel pédagogique.
7. Limites et considérations éthiques
Malgré ses nombreux avantages, ChatGPT présente des limites : a) Vérification des informations : ChatGPT peut générer des réponses incorrectes ou non fondées. Les chercheurs doivent toujours valider les informations obtenues ; b) Propriété intellectuelle : les contributions générées par l’IA doivent être signalées pour éviter tout problème éthique et c) Sensibilité des données : il n’est pas recommandé d’utiliser ChatGPT pour traiter des données confidentielles ou sensibles.
Faut-il l’utiliser ou pas ?
En tant qu’outil d’IA, ChatGPT peut grandement faciliter le travail des scientifiques en leur fournissant un accompagnement flexible et rapide. Même si elle ne remplace pas l’expertise humaine, elle constitue un levier d’efficacité permettant aux chercheurs de consacrer davantage de temps à l’exploration scientifique et à l’innovation.
Cependant, une utilisation judicieuse, éthique et encadrée reste essentielle pour maximiser ses bénéfices tout en minimisant les risques.
L’avènement de l’IA dans la recherche risque d’être tout aussi important que l’invention du moteur thermique ! Nous n’arrêterons pas le progrès, il est donc préférable de s’entraîner comme nous le faisions dans le passé avec l’utilisation de l’ordinateur ou d’Internet. Il est essentiel que les universités élaborent rapidement des politiques pour utiliser ces nouveaux outils avant que les inégalités de productivité ne creusent encore plus les écarts entre toutes les institutions de recherche internationales.
En attendant que la cloche sonne, nous vous souhaitons une bonne initiation !