Quand la psychologie est utilisée pour décrypter le raisonnement de ChatGPT

Les grands modèles de langage comme ChatGPT, développés par la société OpenAI, affichent des capacités impressionnantes mais imprévisibles. Les outils de psychologie cognitive révèlent que ces IA peuvent présenter des biais de raisonnement similaires à ceux des humains, mais aussi des capacités dépassant parfois les nôtres.

Connaissez-vous les grands modèles de langage (LLM) ? Même si cette expression vous semble obscure, il y a fort à parier que vous avez déjà entendu parler du plus célèbre d’entre eux : ChatGPT, de la société californienne OpenAI.

Le déploiement de tels modèles d’intelligence artificielle (IA) pourrait avoir des conséquences difficiles à appréhender. En effet, il est compliqué de prédire précisément comment se comporteront les LLM, dont la complexité est comparable à celle du cerveau humain. Un certain nombre de leurs capacités ont ainsi été découvertes lors de leur utilisation plutôt que planifiées lors de leur conception.

Pour comprendre ces « comportements émergents », de nouvelles investigations doivent être menées. Dans cette optique, au sein de mon équipe de recherche, nous avons utilisé des outils de psychologie cognitive traditionnellement utilisés pour étudier la rationalité chez l’humain afin d’analyser le raisonnement de différents LLM, dont ChatGPT.

Nos travaux ont mis en évidence l’existence d’erreurs de raisonnement dans ces intelligences artificielles. Explications.

Quels sont les principaux modèles de langage ?

Les modèles de langage sont des modèles d’intelligence artificielle capables de comprendre et de générer le langage humain. Schématiquement parlant, les modèles linguistiques sont capables de prédire, en fonction du contexte, les mots les plus susceptibles d’apparaître dans une phrase.

Les LLM sont des algorithmes de réseaux neuronaux artificiels. Inspirés du fonctionnement des réseaux de neurones biologiques qui composent le cerveau humain, les nœuds d’un réseau de plusieurs neurones artificiels reçoivent généralement plusieurs valeurs d’information en entrée puis génèrent, après traitement, une valeur de sortie.

Les LLM se distinguent des algorithmes de réseaux de neurones artificiels « classiques » qui constituent des modèles de langage par le fait de s’appuyer sur une architecture spécifique, d’être entraînés sur d’énormes bases de données, et d’avoir une taille généralement gargantuesque (de l’ordre de plusieurs milliards de « neurones »). »).

L’IA fonctionne de manière assez proche de celle du cerveau. // Source : Wikimédia/SVG Silh (montage Numérorama)

De par leur taille et leur structure (mais aussi la manière dont ils sont formés), les LLM ont montré dès le début de leur utilisation des performances impressionnantes dans les tâches qui leur sont propres, qu’il s’agisse de création de texte, de traduction ou de correction.

Mais ce n’est pas tout : les LLM ont également démontré des performances relativement surprenantes dans une variété de tâches diverses, allant des mathématiques aux formes de base du raisonnement.

En d’autres termes, les LLM ont rapidement démontré des capacités qui n’étaient pas nécessairement explicitement prévisibles à partir de leur programmation. De plus, ils semblent capables d’apprendre à effectuer de nouvelles tâches à partir de très peu d’exemples.

Ces capacités ont créé pour la première fois une situation particulière dans le domaine de l’intelligence artificielle : nous disposons désormais de systèmes si complexes que nous ne pouvons pas prédire à l’avance l’étendue de leurs capacités. D’une certaine manière, nous devons « découvrir » expérimentalement leurs capacités cognitives.

Partant de ce constat, nous avons postulé que les outils développés dans le domaine de la psychologie pourraient s’avérer pertinents pour l’étude des LLM.

L’avantage d’étudier le raisonnement LLM

L’un des principaux objectifs de la psychologie scientifique (expérimentale, comportementale et cognitive) est de tenter de comprendre les mécanismes qui sous-tendent les capacités et les comportements de réseaux de neurones extrêmement complexes : ceux du cerveau humain.

Notre laboratoire étant spécialisé dans l’étude des biais cognitifs chez l’humain, la première idée qui nous est venue à l’esprit a été de tenter de déterminer si les LLM présentaient également des biais de raisonnement.

Compte tenu du rôle que ces machines pourraient jouer dans nos vies, comprendre comment ces machines raisonnent et prennent des décisions est fondamental. De plus, les psychologues peuvent également bénéficier de ces études. En effet, les réseaux de neurones artificiels, capables d’accomplir des tâches dans lesquelles le cerveau humain excelle (reconnaissance d’objets, traitement de la parole, etc.), pourraient également servir de modèles cognitifs.

En particulier, de plus en plus de preuves suggèrent que les réseaux neuronaux mis en œuvre dans les LLM fournissent non seulement des prédictions précises concernant l’activité neuronale impliquée dans des processus tels que la vision et le traitement du langage.

Ainsi, il a été démontré notamment que l’activité neuronale des réseaux de neurones entraînés à la reconnaissance d’objets est en corrélation significative avec l’activité neuronale enregistrée dans le cortex visuel d’un individu effectuant la même tâche.

C’est également le cas en ce qui concerne la prédiction de données comportementales, notamment en matière d’apprentissage.

Des performances qui ont fini par surpasser celles des humains

Lors de nos travaux, nous nous sommes principalement concentrés sur les LLM d’OpenAI (la société à l’origine du modèle de langage GPT-3, utilisé dans les premières versions de ChatGPT), car ces LLM étaient les plus performants à l’époque. dans le paysage. Nous avons testé plusieurs versions de GPT-3, ainsi que ChatGPT et GPT-4.

Pour tester ces modèles, nous avons développé une interface permettant d’envoyer des questions et de collecter automatiquement les réponses des modèles, ce qui nous a permis d’acquérir une grande quantité de données.

L’analyse de ces données a révélé que les performances de ces LLM présentaient des profils comportementaux pouvant être classés en trois catégories.

Les modèles plus anciens étaient tout simplement incapables de répondre aux questions de manière significative.

Les modèles intermédiaires répondaient aux questions, mais se livraient souvent à un raisonnement intuitif qui les conduisait à commettre des erreurs, comme celles trouvées chez les humains. Ils semblaient privilégier le « système 1 », évoqué par le psychologue et prix Nobel d’économie Daniel Kahneman dans sa théorie des schémas de pensée.

Triste ChatGPT // Source : Numerama
ChatGPT. // Source : Numérama

Chez l’humain, le système 1 est un mode de raisonnement rapide, instinctif et émotionnel, tandis que le système 2 est plus lent, plus réfléchi et plus logique. Bien que plus sujet aux biais de raisonnement, le système 1 serait néanmoins préféré, car plus rapide et moins coûteux en énergie que le système 2.

Voici un exemple des erreurs de raisonnement que nous avons testées, tirées du « Test de réflexion cognitive » :

  • Question posée : Une batte et une balle coûtent au total 1,10 $. La batte coûte 1,00 $ de plus que la balle. Combien coûte le ballon ?
  • Réponse intuitive (« système 1 ») : 0,10 $ ;
  • Bonne réponse (« système 2 ») : 0,05 $.

Enfin, la toute dernière génération (ChatGPT et GPT-4) présentait des performances dépassant celles de l’être humain.

Nos travaux ont donc permis d’identifier une trajectoire positive dans la réalisation des LLM, qui pourrait être conçue comme une trajectoire « développementale » ou « évolutive » où un individu ou une espèce acquiert de plus en plus de compétences au fil du temps.

Des modèles qui peuvent s’améliorer

Nous nous sommes demandés s’il était possible d’améliorer les performances des modèles ayant des performances « intermédiaires » (c’est-à-dire ceux qui répondaient aux questions mais présentaient des biais cognitifs). Pour ce faire, nous les avons « encouragés » à aborder le problème qui les avait induits en erreur de manière plus analytique, ce qui a entraîné une augmentation des performances.

Le moyen le plus simple d’améliorer les performances d’un modèle est simplement de lui demander de prendre du recul en lui demandant de « réfléchir étape par étape » avant de lui poser la question. Une autre solution très efficace consiste à leur montrer un exemple de problème correctement résolu, ce qui induit une forme d’apprentissage rapide (« one shot », en anglais).

Ces résultats indiquent une fois de plus que les performances de ces modèles ne sont pas fixes, mais plastiques ; au sein d’un même modèle, des changements de contexte apparemment neutres peuvent modifier les performances, un peu comme chez les humains, où les effets de cadrage et de contexte (tendance à être influencés par la manière dont l’information est présentée) sont très répandus.

D’autre part, nous avons également noté que les comportements des LLM diffèrent de ceux des humains sur de nombreux points. D’une part, parmi la douzaine de modèles testés, nous avons rencontré des difficultés à en trouver un qui soit capable d’approcher correctement le niveau de réponses correctes fournies, aux mêmes questions, par les êtres humains. Dans nos expériences, les résultats des modèles d’IA étaient soit pires, soit meilleurs). En revanche, en regardant plus en détail les questions posées, celles qui posaient le plus de difficultés aux humains n’étaient pas forcément perçues comme les plus difficiles par les modèles.

Ces observations suggèrent que nous ne pouvons pas remplacer les sujets humains par des LLM pour comprendre la psychologie humaine, comme l’ont suggéré certains auteurs.

Enfin, nous avons également observé un fait relativement inquiétant du point de vue de la reproductibilité scientifique. Nous avons testé ChatGPT et GPT-4 à quelques mois d’intervalle et avons observé que leurs performances avaient changé, mais pas nécessairement pour le mieux.

Cela correspond au fait qu’OpenAI a légèrement modifié ses modèles, sans forcément en informer la communauté scientifique. Travailler avec des modèles propriétaires n’est pas à l’abri de ces aléas. Pour cette raison, nous pensons que l’avenir de la recherche (cognitive ou autre) sur les LLM devrait reposer sur des modèles ouverts et transparents pour garantir plus de contrôle.

Le logo des conversationsLe logo des conversations

Stefano Palminteri, chercheur, Inserm

Cet article est republié à partir de The Conversation sous une licence Creative Commons. Lisez l’article original.


Vous voulez tout savoir sur la mobilité de demain, des voitures électriques aux vélos électriques ? Abonnez-vous maintenant à notre newsletter Watt Else !

 
For Latest Updates Follow us on Google News
 

PREV Windows NT 4.0 fonctionne nativement sur un Power Mac, près de 30 ans plus tard – .
NEXT Nous avons testé l’Eden, une version moderne de la célèbre voiture de plage – .