ChatGPT indique en arabe que le nombre de victimes du conflit au Moyen-Orient est en moyenne d’un tiers plus élevé qu’en hébreu. Concernant les attaques aériennes israéliennes à Gaza, le chatbot évoque deux fois plus de victimes civiles et six fois plus d’enfants tués.
Deux chercheurs des universités de Zurich (UZH) et de Constance (D) ont posé à ChatGPT les mêmes questions sur les conflits armés, comme celui du Moyen-Orient, de manière répétée et automatique, dans différentes langues.
En arabe et en hébreu, ils ont demandé combien de victimes avaient été enregistrées lors de 50 attaques aériennes choisies au hasard, comme l’attaque aérienne israélienne de 2014 contre le camp de réfugiés de Nuseirat.
Le même schéma que pour le conflit au Moyen-Orient s’est produit lorsque les scientifiques ont posé des questions sur les attaques aériennes du gouvernement turc dans les régions kurdes, en turc et en kurde, a rapporté lundi l’UZH dans un communiqué de presse.
De manière générale, ChatGPT affiche un nombre de victimes plus élevé lorsque les recherches sont effectuées dans la langue du groupe attaqué. ChatGPT a en outre tendance à signaler davantage d’enfants et de femmes tués dans la langue du groupe attaqué et à décrire les attaques aériennes comme plutôt aveugles et arbitraires.
“Nos résultats montrent en même temps que les attaques aériennes sont plus susceptibles d’être contestées dans la langue de l’agresseur par ChatGPT”, explique Christoph Steinert, chercheur à l’Institut de sciences politiques de l’UZH, cité dans un communiqué.
Biais linguistiques
Les personnes ayant des compétences linguistiques différentes reçoivent donc des informations différentes grâce à ces technologies, ce qui a une influence centrale sur leur perception du monde, souligne l’étude.
Selon les chercheurs, cela pourrait amener les personnes vivant en Israël à estimer, sur la base des informations qu’elles reçoivent de ChatGPT, que les attaques aériennes à Gaza ont été moins meurtrières que la population arabophone.
Les médias d’information traditionnels peuvent certainement aussi déformer les informations. Mais les distorsions systématiques comme celles observées dans le cas de ChatGPT sont difficiles à percevoir pour la plupart des utilisateurs, note l’UZH.
Il existe un risque que la mise en œuvre de ces instruments dans les moteurs de recherche renforce les perceptions divergentes, les préjugés et les bulles d’information le long des frontières linguistiques, préviennent les auteurs. Cela pourrait contribuer à l’avenir à alimenter des conflits armés comme celui du Moyen-Orient, selon ces travaux publiés dans le Journal of Peace Research.
/ATS