Traitement des demandes d’asile | L’utilisation croissante de l’IA suscite des doutes

Traitement des demandes d’asile | L’utilisation croissante de l’IA suscite des doutes
Traitement des demandes d’asile | L’utilisation croissante de l’IA suscite des doutes

Un nombre croissant de pays utilisent des systèmes sophistiqués de traitement de l’information, notamment l’intelligence artificielle (IA), pour optimiser et accélérer l’analyse des demandes d’immigration et d’asile.

« Les gouvernements poussent ces technologies sans toujours s’assurer qu’elles sont compatibles avec les droits fondamentaux » des personnes concernées, prévient Petra Molnar, avocate spécialisée en immigration rattachée à l’Université York à Toronto.

La situation est d’autant plus problématique, dit-elle, que ces initiatives sont généralement lancées sans consultation publique.

“C’est souvent une fois qu’ils sont en place, grâce à une procédure lancée par un avocat ou à un document obtenu par un journaliste, que l’on apprend leur existence”, constate M.moi Molnar, qui a documenté plusieurs cas problématiques dans un livre récent sur le sujet.

Analyser les accents

Selon elle, l’Allemagne utilise notamment des logiciels d’analyse vocale pour étudier les accents des demandeurs d’asile.

Le résultat permet de détecter des contradictions dans leurs témoignages, même s’il peut y avoir une variabilité considérable des accents d’un individu à l’autre, souligne le chercheur.

En 2019, la Grèce, la Hongrie et la Lettonie ont expérimenté des logiciels basés sur l’IA pour tenter d’analyser les expressions faciales des personnes interagissant avec les agents frontaliers afin de déterminer si elles disaient la vérité.

L’expérience, en partie financée par l’Union européenne, a suscité une controverse et s’est terminée après que d’importantes erreurs ont été signalées. Les concepteurs du logiciel ont publiquement reconnu qu’il risquait de « porter atteinte aux droits fondamentaux ».

Les Pays-Bas, de leur côté, ont entrepris d’analyser les récits des demandeurs d’asile avec AI afin de trouver des points communs avec les demandes antérieures afin d’accélérer leur traitement.

Une étude récente souligne que ce processus comparatif est risqué puisqu’il peut amener les agents responsables à conclure qu’une histoire trop similaire est copiée, ou qu’une histoire trop différente est irréaliste.

Le gouvernement britannique a de son côté été accusé d’utiliser un algorithme qui identifie « automatiquement » les migrants auxquels il devrait imposer des mesures répressives.

Couper court aux conflits

L’organisation Privacy International, qui a formulé plusieurs demandes d’accès à l’information à ce sujet, soutient que le système a été conçu pour que le personnel ne puisse pas contester les recommandations avancées.

Madeleine Sumption, qui dirige l’Observatoire des migrations de l’Université d’Oxford, constate que le gouvernement britannique fournit peu d’informations sur ses initiatives dans ce domaine, ce qui rend difficile l’évaluation de leur impact.

L’utilisation de technologies telles que l’IA dans le traitement des demandes d’immigration n’est pas a priori inacceptable, affirme-t-elle.

« Ce qui compte, c’est la manière dont on l’utilise et les directives mises en place pour l’encadrer », note le chercheur, qui estime important de garder l’être humain au cœur du processus de décision sur les sujets délicats.

Faisons une analogie avec le monde médical. Lorsqu’on vous demandera si votre médecin doit être remplacé par une machine, vous répondrez non. Mais lorsqu’on vous demande si vous êtes favorable à ce que votre médecin ait accès à un outil qui lui permet de prendre une meilleure décision, vous répondrez oui.

Madeleine Sumption, directrice de l’Observatoire des migrations de l’Université d’Oxford

Le recours à l’intelligence artificielle reste potentiellement problématique, selon Mmoi Sumption, car il peut être difficile de comprendre sur quels éléments une recommandation donnée est basée, ce qui complique tout processus d’appel.

Biais reproduit par la machine

Les données utilisées pour « entraîner l’IA » peuvent également contenir des biais qui sont alors susceptibles d’être reproduits par le système, note-t-elle.

M.moi Molnar estime qu’un moratoire devrait être imposé sur ce type d’utilisation jusqu’à ce qu’un système soit mis en place pour prévenir les violations des droits de l’homme.

Dans un rapport réalisé avec des collègues de l’Université de Toronto en 2018, le chercheur s’est alarmé du fait que le gouvernement canadien avait entrepris des « expériences » pour automatiser une partie du processus décisionnel normalement effectué par les agents d’immigration.

La Commission de l’immigration et du statut de réfugié (CISR) a précisé avoir adopté plusieurs « approches innovantes » utilisant des « systèmes analytiques sophistiqués » pour gérer le « volume élevé » de demandes à traiter et améliorer ces services.

L’organisation a révélé, dans un document mis à jour en 2023, qu’elle les utilisait notamment pour trier les demandes de visa ou pour extraire des données susceptibles de faciliter le processus de décision.

La CISR a déclaré qu’elle « n’a pas établi de limites absolues aux circonstances dans lesquelles l’automatisation et l’IA peuvent être utilisées », mais qu’elle « adopte une approche prudente » en s’assurant, entre autres, que son personnel conserve le contrôle du processus décisionnel.

 
For Latest Updates Follow us on Google News
 

PREV Marrakech accueille la Conférence internationale sur la santé urbaine du 18 au 21 novembre
NEXT La nouvelle version de la « super note » de De Wever ne plaît toujours pas au Vooruit, le blocage continue