Des États-Unis à l’Italie, du Royaume-Uni au Pakistan, les femmes politiques sont de plus en plus victimes d’images sexuelles ou pornographiques générées par l’intelligence artificielle (IA), une tendance inquiétante qui menace la participation des femmes à la vie publique, affirment les chercheurs.
Cette explosion de deepfakes publiés sans le consentement des personnes ciblées contrecarre les efforts de régulation de l’intelligence artificielle au niveau mondial, estiment les experts, avec une multiplication d’outils d’IA à bas prix, notamment des applications de retouche photo sur téléphone qui permettent de déshabiller les femmes.
Pour les chercheurs, ces images intimes sont utilisées comme de véritables armes visant à nuire à la réputation des femmes dans la sphère publique, compromettant leur carrière, sapant la confiance du public et menaçant la sécurité nationale, en alimentant des phénomènes de chantage et de harcèlement.
Aux États-Unis, l’American Sunlight Project (ASP), un groupe de recherche sur la désinformation, a identifié plus de 35 000 occurrences de deepfakes représentant 26 membres du Congrès américain, dont 25 femmes, sur des sites pornographiques.
Une « réalité sombre et inquiétante » pour les chercheurs dont l’étude publiée le mois dernier montre qu’un sixième des femmes élues au Congrès ont été victimes de telles images générées par l’IA.
“Les femmes membres du Congrès sont la cible de ces deepfakes pornographiques générés par l’IA à un niveau alarmant”, prévient Nina Jankowicz, présidente de l’ASP.
« Ce n’est pas seulement une question de technologie, c’est une attaque contre les femmes qui ont le pouvoir et contre la démocratie elle-même », souligne-t-elle.
L’ASP n’a pas publié les noms des élues au Congrès visées par les images en question, pour éviter de susciter davantage d’intérêt et de recherches, mais a indiqué avoir informé leurs bureaux de manière confidentielle.
« Menez cette guerre »
Au Royaume-Uni, la vice-Première ministre Angela Rayner fait partie d’au moins 30 personnalités politiques britanniques ciblées par un site pornographique deepfake, selon une enquête de la télévision Channel 4 publiée en juillet.
Ce site, qui attire de nombreux visiteurs et dont le nom n’a pas été dévoilé par la chaîne pour éviter toute publicité, utilise l’IA pour « mettre à nu » une dizaine de ces personnalités politiques, transformant de vraies photos en fausses images où elles apparaissent nues.
Les femmes sont ciblées par des applications et des outils basés sur l’IA, disponibles gratuitement pour le grand public et ne nécessitant aucune compétence technique, qui permettent à leurs utilisateurs de retirer virtuellement leurs vêtements des images ou de générer des deepfakes via des requêtes textuelles sexualisées.
Les progrès technologiques ont donné naissance à ce que les chercheurs appellent une « industrie artisanale » croissante autour de la pornographie augmentée par l’IA, certains créateurs de deepfake acceptant des demandes payantes pour générer du contenu mettant en vedette une personne du choix du client.
En Italie, la Première ministre Giorgia Meloni réclame 100 000 euros de dommages et intérêts à deux hommes accusés d’avoir créé de fausses vidéos pornographiques la mettant en scène et de les avoir publiées sur des sites pornographiques américains.
“Il s’agit d’une forme de violence contre les femmes”, a déclaré Mme Meloni devant un tribunal en octobre 2024, selon l’agence de presse italienne ANSA.
« Avec l’avènement de l’IA, si nous permettons que le visage d’une femme se superpose au corps d’une autre, nos filles se retrouveront dans ces situations, c’est justement pour cela que je considère légitime de mener cette guerre », a-t-elle insisté.
« Dissuader les femmes »
Au Pakistan, des journalistes de l’AFP ont analysé une vidéo deepfake montrant une élue locale, Meena Majeed, embrassant un homme en public, un acte considéré comme immoral dans ce pays musulman conservateur.
Azma Bukhari, ministre de l’Information de la province pakistanaise du Pendjab, a déclaré s’être sentie « dévastée » après avoir découvert une vidéo deepfake superposant son visage sur le corps nu d’une actrice indienne.
« Nous observons de plus en plus l’effet paralysant de ces images et vidéos générées par l’IA et utilisées pour harceler les femmes en politique », analysait l’ONG Tech Policy Press en 2024, prévenant que cela a pour effet de « dissuader les femmes qui ont des ambitions politiques ».
Partout dans le monde, la prolifération de ces deepfakes a dépassé les réglementations.
La législation en vigueur au Pakistan « pour prévenir la criminalité en ligne » comprend des dispositions contre la « cyberintimidation » visant à interdire le partage de photos ou de vidéos sans le consentement des personnes ciblées, « de manière à nuire à quiconque ». Cependant, le pays ne dispose pas de loi spécifique pour lutter contre la diffusion de deepfakes à caractère sexuel.
Bien que les lois britanniques criminalisent la diffusion de deepfakes pornographiques, le gouvernement travailliste a promis d’interdire la création de tels contenus, mais aucun calendrier n’a encore été fixé.
Quelques États américains, dont la Californie et la Floride, ont adopté des lois criminalisant la publication de deepfakes sexuellement explicites, et les militants appellent le Congrès américain à adopter de toute urgence de nouvelles lois pour réglementer leur création et leur distribution.
Même si les victimes des deepfakes pornographiques ont jusqu’à présent été des hommes politiques et des célébrités, dont la chanteuse Taylor Swift, les experts affirment que toutes les femmes, y compris celles qui ne font pas partie du cercle médiatique, y sont vulnérables.
Après que l’ASP ait informé les députées ciblées, les images générées par l’IA ont été presque entièrement supprimées des sites concernés, reflétant ce que les chercheurs appellent une « disparité de privilèges ».
“Les femmes qui ne disposent pas des ressources dont disposent les membres du Congrès auraient peu de chances d’obtenir une réponse aussi rapide de la part des sites publiant des deepfakes pornographiques si elles lançaient elles-mêmes une demande de retrait”, explique l’ASP dans son rapport.