L’intelligence artificielle peut s’avérer être une arme insidieuse de désinformation massive. Son impact reste cependant limité, selon un rapport cosigné par des scientifiques de l’EPFL qui analyse la centaine d’élections qui auront lieu dans le monde en 2024.
De Taïwan aux États-Unis en passant par le Sénégal, l’IA a été au cœur des campagnes politiques, note l’EPFL dans un communiqué. Entre « deepfake » et « chatbot », l’utilisation abusive des technologies déstabilise la confiance du public dans les informations diffusées par les médias, quels qu’ils soient, des chaînes de télévision aux réseaux sociaux.
En analysant les différentes campagnes et résultats électoraux avec des spécialistes locaux, plusieurs experts constatent qu’IA n’a pas réellement modifié les résultats des élections. Son impact reste donc limité. Cependant, la multiplication des contenus manipulés, amplifiés par les algorithmes, a contribué à la fragmentation des opinions et alimenté un climat de méfiance généralisée.
En Suisse aussi
Les deepfakes, contenus audiovisuels générés artificiellement pour imiter de vraies personnes, ont marqué l’année électorale tant aux États-Unis qu’en Suisse. Dans le rapport, les chercheurs rappellent qu’en vue des élections fédérales de 2023, le conseiller national UDC d’Argovie, Andreas Glarner, avait créé une vidéo deepfake de sa rivale politique Sibel Arslan.
Un autre exemple, cité dans le rapport, note que des hommes politiques comme Donald Trump qualifient systématiquement de « deep fake » les informations les présentant sous un jour défavorable. Tandis qu’en Inde ou en Indonésie, l’usage de l’IA générative franchit de nouvelles frontières, des personnalités politiques décédées sont « ressuscitées » sous forme d’avatars numériques pour influencer les électeurs.
Capacités accrues
L’histoire de la manipulation numérique à des fins de propagande n’est pas nouvelle. Mais l’IA a multiplié leurs capacités. En période électorale, la production massive et la diffusion rapide de contenus synthétiques – qu’il s’agisse de vidéos, d’images ou de textes – minent la confiance du public.
Par ailleurs, les auteurs du rapport constatent un manque de régulation qui a, par conséquent, permis une multiplication de contenus manipulateurs, illustrant un vide juridique.
L’analyse a été réalisée par l’Initiative pour l’innovation dans les médias (IMI) basée à l’EPFL. Il est publié dans le premier numéro de sa revue « Décryptage ».
Parmi les recommandations des experts figure le développement d’outils de traçabilité et de détection des contenus synthétiques. L’importance de la régulation internationale et de la responsabilisation des acteurs technologiques est également soulignée. Enfin, le rapport souligne le rôle crucial des gouvernements, des entreprises et de la société civile dans la création d’un environnement numérique éthique et sécurisé.
ats/vkiss