Demandes d’asile rédigées par un robot

Demandes d’asile rédigées par un robot
Demandes d’asile rédigées par un robot

Les commissaires à l’immigration s’inquiètent de l’apparition de demandes d’asile au Canada rédigées par l’intelligence artificielle (IA). Les demandeurs utilisent un chatbot comme ChatGPT pour rédiger pour eux un historique de persécution ou pour détailler les dangers qui existent dans leur pays d’origine. Une pratique jugée inquiétante, car dans au moins un cas, le logiciel est soupçonné d’avoir fabriqué de fausses preuves pour faciliter l’obtention du statut de réfugié.


Publié à 00h53

Mis à jour à 5h00

C’est ce que révèle une série de courriels internes rédigés par des responsables fédéraux l’automne dernier et obtenus par - sous le Loi sur l’accès à l’information.

«L’intelligence artificielle devient une préoccupation majeure», lit-on dans les notes de réunion entre les gestionnaires de la Commission de l’immigration et du statut de réfugié (CISR), un tribunal administratif chargé d’entendre les demandes d’asile au Canada.

Le mémo évoque la crainte que le logiciel « écrive une histoire » sur un candidat.

Pour chacune des dizaines de milliers de demandes d’asile déposées au Canada chaque année, un commissaire de la CISR doit étudier la preuve et déterminer si la personne devant lui a de réelles raisons de craindre d’être persécutée dans son pays d’origine en raison de sa race, de sa religion. , nationalité, opinions politiques ou appartenance à un groupe social. Si tel est le cas et que l’histoire racontée par le demandeur est jugée crédible, il obtient le statut de réfugié et lui ouvre les portes du Canada.

Le système permet aux véritables réfugiés de reconstruire leur vie loin de la guerre, de la dictature, des gangs ou des fanatiques religieux qu’ils ont laissés derrière eux. Mais il arrive aussi que de faux réfugiés tentent d’être admis dans le pays sous de faux prétextes. Certains commissaires craignent que les nouveaux outils technologiques ne facilitent leur tâche.

« Des similitudes frappantes »

Dans le cadre du processus, chaque personne souhaitant obtenir le statut de réfugié doit d’abord remplir un formulaire dans lequel elle détaille son parcours et les raisons qui l’ont amenée à chercher refuge au Canada.

L’automne dernier, les gestionnaires de la CISR ont signalé quelques cas d’histoires individuelles dans ces formulaires qui semblaient avoir été rédigées par un chatbot au lieu du demandeur.

« La région de l’Ouest nous a signalé six cas dans lesquels ils ont détecté l’utilisation de ChatGPT. Nous aimerions mieux comprendre l’ampleur de ce problème potentiel et les cas détectés », a écrit M.e Sarah Côté, commissaire coordonnatrice basée à Montréal, dans un courriel envoyé à ses collègues en novembre dernier, qui a par la suite suscité plusieurs réponses.

Les exemples évoqués dans les échanges obtenus par - incluait un cas où un commissaire avait détecté de nombreux formulaires détaillant les antécédents de différents candidats qui présentaient des « similitudes frappantes » et un style particulier.

Comme si un logiciel avait apporté la même réponse à plusieurs personnes qui lui ont demandé d’écrire une histoire convaincante basée sur les dangers qui peuvent exister dans un certain pays.

Dans d’autres cas, c’est le style d’écriture fleuri et grandiloquent, très différent des autres documents complétés par le requérant, qui a amené les commissaires à croire que le récit du voyage du requérant n’avait pas été rédigé par lui et qui les a amenés à s’interroger son authenticité.

Liens hypertextes approximatifs

Dans un autre cas cité dans les débats, un avocat qui représentait un demandeur d’asile rwandais a reconnu devant un commissaire avoir demandé à ChatGPT de rédiger un document général sur les risques de recrutement forcé de jeunes vulnérables dans les rangs de l’armée rwandaise.

Le document présenté comme preuve faisait référence à plusieurs sources officielles censées confirmer les craintes du requérant à cet effet. Le seul problème était qu’aucun des hyperliens cités en preuve et qui devraient conduire vers des sources officielles n’était fonctionnel.

Le commissaire en charge du dossier « estime que ChatGPT a fabriqué les liens », lit-on dans l’un des courriels divulgués par la CISR à -.

En fait, ChatGPT simule des hyperliens vers des sources crédibles (par exemple Human Rights Watch), mais les articles n’existent pas réellement. Ce ne sont que des combinaisons ou des approximations de liens réels.

Un responsable de l’IRB

La CISR n’a pas souhaité accorder d’interview à ce sujet pour cet article.

“En ce qui concerne les risques liés à l’utilisation de l’IA par des personnes dans le cadre de demandes d’asile, la Commission connaît de nombreux risques potentiels”, a simplement précisé la porte-parole Anna Pape dans un courrier électronique.

« Lorsqu’ils rendent des décisions, les commissaires de la CISR doivent toujours évaluer la crédibilité des parties et des preuves qu’elles présentent. Il s’agit d’un élément clé de leur travail, qui consiste à trancher chaque cas au fond et conformément à la loi. La manière dont les demandeurs d’asile préparent leurs documents ne change rien à cette responsabilité fondamentale », assure-t-elle.

Difficile de passer l’audience

Me Stéphanie Valois, présidente de l’Association québécoise des avocats en immigration, estime qu’il faut faire une distinction entre un demandeur qui demande simplement à un outil comme ChatGPT d’améliorer la rédaction ou la mise en forme du texte de son récit et une situation où les faits eux-mêmes seraient « amélioré » par le logiciel.

« Là, cela voudrait dire que le client n’a pas écrit sa propre histoire », estime-t-elle.

type="image/webp"> type="image/jpeg">>>

PHOTO ROBERT SKINNER, ARCHIVES -

Me Stéphanie Valois, présidente de l’Association québécoise des avocats en droit de l’immigration

Me Valois ajoute que l’avocat du plaignant a une responsabilité s’il détecte quelque chose qui ne va pas. « Si un client ment, on ne peut pas toujours le savoir. Mais si nous le savons, nous ne pouvons pas soumettre notre formulaire », dit-elle.

Me Stéphane Handfield, un avocat spécialisé en immigration qui a longtemps travaillé comme commissaire à la CISR, se veut rassurant. Selon lui, il serait très difficile pour un demandeur d’asile d’induire les décideurs en erreur sur la base d’un récit construit par l’intelligence artificielle.

« Il faut rassurer : il y a toujours une audience pour évaluer la crédibilité du candidat. La personne qui arrive avec une histoire inventée, qu’elle ait été créée par l’IA ou non, il lui sera très difficile de soutenir un témoignage pendant trois heures avec les questions souvent pointues qui lui seront posées sur ce qu’elle a. allégué. Il lui faudra être très fort devant le tribunal pour répondre à toutes ces questions, si l’histoire n’est pas la sienne”, estime-t-il.

Avec William Leclerc, -

Apprendre encore plus

  • 156 032
    Nombre de dossiers en attente devant la Commission de l’immigration et du statut de réfugié au 31 décembre
    37 222
    Nombre de demandes d’asile acceptées en 2023
 
For Latest Updates Follow us on Google News
 

PREV SÉNÉGAL-FORMATION-ENVIRONNEMENT / Les étudiants de Birkelane sensibilisés aux métiers verts par l’ISEP de Mbacké – Agence de presse sénégalaise – .
NEXT Peine confirmée pour père incestueux