La recherche générée par l’intelligence artificielle constitue une menace pour les connaissances sociales et la confiance du public dans la science. C’est la conclusion d’une étude menée par des chercheurs de l’École suédoise des bibliothèques et des sciences de l’information de l’Université de Borås, qui ont récemment identifié plus d’une centaine d’articles suspects générés par l’IA sur le moteur de recherche Google Scholar.
Leur rapport souligne que les articles scientifiques falsifiés par l’IA inondent Google Scholar. Ces découvertes sur la science créée par l’IA soulignent que de fausses recherches peuvent être rendues disponibles et diffusées à grande échelle, souvent à moindre coût, par des acteurs malveillants. Cette étude a été publiée dans la revue Examen de la désinformation de la Harvard Kennedy School.
Jutta Haider et Björn Ekström, chercheurs associés à l’École suédoise des bibliothèques et des sciences de l’information, ainsi que Kristofer Söderström de l’Université de Lund et Malte Rödl de l’Université suédoise des sciences agricoles, soulignent les dangers que cela représente tant au niveau sociétal que pour la communauté scientifique.
Risque accru de manipulation de preuves
L’une des principales préoccupations liées à la recherche générée par l’IA est le risque de manipulation stratégique des preuves, appelé « piratage des preuves ».
« Les risques d’un phénomène que nous appelons « piratage de preuves » augmentent considérablement avec la diffusion des recherches générées par l’IA sur les moteurs de recherche. Cela peut avoir des conséquences réelles, car des résultats erronés peuvent se répandre dans la société et dans divers domaines », a déclaré Ekström, titulaire d’un doctorat en bibliothéconomie et sciences de l’information.
Les chercheurs ont déjà observé que ces articles problématiques se sont propagés à d’autres parties de l’infrastructure de recherche en ligne, notamment à diverses archives et médias sociaux. La propagation est rapide et Google Scholar rend visibles ces articles problématiques. Même si ces articles sont supprimés, il reste un risque qu’ils aient déjà eu le temps de se propager et continuent de circuler.
De plus, la recherche basée sur l’IA complique encore davantage un système d’évaluation par les pairs déjà tendu.
Exige une meilleure culture de l’information
La diffusion des recherches générées par l’IA dans les bases de données des moteurs de recherche impose des exigences accrues aux utilisateurs de ces informations en ligne.
« Si nous ne pouvons pas faire confiance aux recherches que nous consultons, nous risquons de prendre des décisions basées sur des informations incorrectes. Mais il ne s’agit pas seulement de malversations scientifiques, il s’agit également de culture des médias et de l’information », a ajouté Haider, professeur de bibliothéconomie et de sciences de l’information.
Elle souligne que Google Scholar n’est pas une base de données académique. Bien que le moteur de recherche soit facile à utiliser et rapide, il manque de procédures d’assurance qualité. C’est déjà un problème dans les résultats de recherche Google standard, mais cela devient encore plus critique pour l’accessibilité de la science.
“La capacité des gens à déterminer quels journaux et éditeurs publient principalement des recherches évaluées par des pairs est fondamentale pour identifier ce qui constitue une recherche fiable, essentielle à la prise de décision et à la formation de l’opinion”, a conclu Haider.
Plus d’informations :
Jutta Haider et al., Articles scientifiques fabriqués par GPT sur Google Scholar : principales caractéristiques, diffusion et implications pour la manipulation préventive des preuves, Examen de la désinformation de la Harvard Kennedy School (2024). DOI : 10.37016/mr-2020-156
Publié par
Université de Boras
En résumé, la prolifération d’articles scientifiques générés par l’IA soulève des questions fondamentales sur la confiance dans la recherche. Comment pouvons-nous renforcer les mécanismes permettant de différencier la science authentique du contenu généré automatiquement ? Cette question mérite d’être au cœur des discussions futures pour préserver l’intégrité scientifique.