Les réponses de ChatGPT aux conflits diffèrent selon la langue, selon une étude

Les réponses de ChatGPT aux conflits diffèrent selon la langue, selon une étude
Les réponses de ChatGPT aux conflits diffèrent selon la langue, selon une étude

ChatGPT indique en arabe que le nombre de victimes du conflit au Moyen-Orient est en moyenne d’un tiers plus élevé qu’en hébreu. Concernant les attaques aériennes israéliennes à Gaza, le chatbot évoque deux fois plus de victimes civiles et six fois plus d’enfants tués.

Deux chercheurs des universités de Zurich (UZH) et de Constance (D) a posé à ChatGPT les mêmes questions sur les conflits armés, comme celui du Moyen-Orient, à plusieurs reprises et automatiquement, dans différentes langues.

En arabe et en hébreu, ils ont demandé combien de victimes avaient été enregistrées lors de 50 attaques aériennes choisies au hasard, comme l’attaque aérienne israélienne de 2014 contre le camp de réfugiés de Nuseirat.

Différences entre les femmes et les enfants

De manière générale, ChatGPT affiche un nombre de victimes plus élevé lorsque les recherches sont effectuées dans la langue du groupe attaqué. ChatGPT a en outre tendance à signaler davantage d’enfants et de femmes tués dans la langue du groupe attaqué et à décrire les attaques aériennes comme plutôt aveugles et arbitraires.

“Nos résultats montrent en même temps que les attaques aériennes sont plus susceptibles d’être contestées dans la langue de l’agresseur par ChatGPT”, explique Christoph Steinert, chercheur à l’Institut de sciences politiques de l’UZH, cité dans un communiqué.

Le même schéma que pour le conflit du Moyen-Orient s’est produit lorsque les scientifiques ont posé des questions sur les attaques aériennes du gouvernement turc dans les régions kurdes, à la fois en turc et en kurde, a déclaré l’UZH.

Des distorsions difficiles à percevoir

Les personnes ayant des compétences linguistiques différentes reçoivent donc des informations différentes grâce à ces technologies, ce qui a une influence centrale sur leur perception du monde, souligne l’étude.

Selon les chercheurs, cela pourrait amener les personnes vivant en Israël à estimer, sur la base des informations qu’elles reçoivent de ChatGPT, que les attaques aériennes à Gaza ont été moins meurtrières que la population arabophone.

Les médias d’information traditionnels peuvent certainement aussi déformer les informations. Mais les distorsions systématiques comme celles observées dans le cas de ChatGPT sont difficiles à percevoir pour la plupart des utilisateurs, note l’UZH.

Il existe un risque que la mise en œuvre de ces instruments dans les moteurs de recherche renforce les perceptions divergentes, les préjugés et les bulles d’information le long des frontières linguistiques, préviennent les auteurs. Cela pourrait contribuer à l’avenir à alimenter des conflits armés comme celui du Moyen-Orient, selon ces travaux publiés dans le Journal of Peace Research.

réponse

 
For Latest Updates Follow us on Google News
 

PREV Ryanair, easyJet et Vueling condamnés pour bagages de cabine
NEXT un employé aurait dissimulé 154 millions de dollars de dépenses