En cette année où près de la moitié de la population mondiale était appelée aux urnes pour des élections nationales, un scrutin était particulièrement attendu par les observateurs de la désinformation : l’élection présidentielle américaine.
Bien entendu, le fait que les États-Unis soient notre voisin et la principale puissance occidentale y est pour beaucoup. Mais il n’en demeure pas moins que cette première élection américaine à l’ère de l’intelligence artificielle (IA) générative devrait nous offrir un avant-goût de l’impact que cette technologie pourrait avoir sur la démocratie. C’est du moins ce que nous avons entendu de la Silicon Valley.
L’élection présidentielle étant derrière nous, on peut désormais affirmer avec un degré de certitude assez élevé que l’IA générative n’est même pas près de faire pencher la balance.
On a encore vu un candidat à la présidentielle utiliser des images artificielles comme outil de communication et une vidéo de propagande, probablement russe, qualifiée à tort d’hyperfaking (faux profond).
On a également vu circuler de nombreux montages (Nouvelle fenêtre)photo, audio ou vidéo assistés par des outils d’IA, souvent à des fins caricaturales ou parodiques.
Cette photo publiée par Donald Trump sur X a été générée par l’IA.
Photo : X @realdonaldtrump
Pour autant, cela ne veut pas dire que tout est rose.
Un nouveau rapport de recherche de l’Institut pour le dialogue stratégique (ISD) a analysé des messages dans lesquels les auteurs se demandaient si un contenu électoral particulier publié sur le Web était ou non le produit de l’IA. Dans 52% des cas, les internautes se sont trompés.
Ce rapport est basé sur un échantillon aléatoire de 300 publications sur X, Reddit et YouTube. Ceci est loin d’être un portrait exhaustif, mais il donne une idée approximative de la situation.
Selon Isabelle Frances-Wright, co-autrice du rapport, la propension de nombreux internautes à voir l’IA là où elle ne se trouve pas témoigne notamment de leur capacité à prendre leurs souhaits pour réalité.
Souvent, le contenu dont les gens discutaient n’était pas généré par l’IA, mais c’était le « spectre » de l’IA qui avait un impact. L’IA donne aux gens la possibilité de nier la réalité comme ils le font déjà, mais de manière encore plus intense. S’ils voient du contenu qui contredit leurs convictions politiques ou leur idéologie, ils peuvent simplement dire que c’est faux.
explique celle qui est également directrice de recherche sur la technologie et la société à la branche américaine de l’ISD.
Autre statistique intéressante de ce rapport : 22% des publications étudiées dans le rapport concernaient l’exactitude des informations proposées par les robots conversationnels ou les assistants vocaux.
Peu de temps après la première tentative d’assassinat contre Donald Trump, l’auteur d’un message déplorait par exemple que le modèle linguistique de Meta agisse comme si cela ne s’était jamais produit. Les internautes avaient alors affirmé que Meta tentait de censurer les informations avec son IA.
Ce qui s’est réellement passé, c’est que l’IA de Meta n’était pas connectée à Internet. Elle n’avait donc pas accès à des informations actualisées sur l’actualité, comme cette tentative d’assassinat.
Ce texte a été initialement publié dans le bulletin d’information de Décrypteurs du 26 en novembre dernier. S’abonner pour recevoir du contenu exclusif comme celui-ci chaque semaine.
Le public mal équipé
Le rapport révèle également que les utilisateurs s’appuient souvent sur des stratégies inappropriées pour déterminer si le contenu est généré ou non par l’IA.
Dans les cas où les gens se sont trompés, 58 % ont utilisé des stratégies de détection « obsolètes ou incorrectes » ou des outils de détection d’IA présentant des faiblesses connues.
Comme Decryptors l’a expliqué dans un article précédent, ce logiciel présente intrinsèquement un certain taux d’erreur. De plus, les faux positifs peuvent alimenter la désinformation tout autant qu’une image véritablement générée par l’IA.
C’est ce qui s’est passé avec une image d’un rassemblement de Kamala Harris à Détroit qui a été identifiée à tort par plusieurs internautes – et par Donald Trump lui-même – comme ayant été générée par l’IA.
Une capture d’écran d’un logiciel de détection d’IA estimant qu’il y avait 92 % de chances qu’elle soit artificielle a été vue plus de 1,7 million de fois et a continué à circuler malgré de nombreux articles de vérification des faits sur ce sujet.
Démarrage du widget Twitter. Ignorer le widget ?Fin du widget Twitter. Revenir au début du widget ?
Selon Isabelle Frances-Wright, les internautes suivent souvent de fausses pistes en s’appuyant sur de prétendues imprécisions visuelles concernant les mains ou les doigts des personnes dans des images soupçonnées d’être générées par l’IA.
Les reflets de la lumière, le blanc des yeux, les reflets sur les yeux et la manière d’écrire les lettres sont également des cibles prisées.
Pour le chercheur, savoir reconnaître les fruits de l’IA sur les réseaux sociaux passe avant tout par l’éducation, mais le combat est loin d’être gagné.
À mesure que le contenu devient de plus en plus sophistiqué, les gens seront de plus en plus confus et susceptibles de faire de mauvaises critiques, surtout s’ils se concentrent uniquement sur le contenu lui-même. Du point de vue de l’éducation aux médias, j’encouragerais vraiment les gens à prendre du recul et à poser des questions sur les sources.
dit Isabelle Frances-Wright.
J’espère que l’éducation aux médias résoudra ce problème, car en réalité, c’est la seule solution possible.
Related News :