La société mère de Facebook et Instagram enquête sur des « hyperfakes » pornographiques de femmes connues

La société mère de Facebook et Instagram enquête sur des « hyperfakes » pornographiques de femmes connues
Descriptive text here

Le conseil de surveillance de Meta (Facebook, Instagram) a annoncé mardi se saisir de deux dossiers concernant de fausses images pornographiques de personnalités publiques féminines, deux mois après le scandale des « deepfakes » mettant en scène Taylor Swift.

Les deux cas ont été sélectionnés « pour évaluer si les réglementations de Meta et leur application sont efficaces pour résoudre (le problème des) images sexuelles générées par l’intelligence artificielle (IA) », note dans un communiqué ce conseil surnommé « cour suprême ».

Mis en place par le géant des médias sociaux et composé de membres indépendants, le conseil est chargé de trancher les questions épineuses de modération des contenus.

L’essor de l’IA générative, qui automatise la production de contenus sophistiqués, a donné un nouvel élan au phénomène des « deepfakes », ou « hyperfakes », notamment des images manipulées et sexualisées mettant en scène des femmes, à des fins d’intimidation ou de harcèlement.

Le premier cas choisi par le conseil de surveillance de Meta concerne une image générée par l’IA d’une femme nue publiée sur Instagram, “ressemblant à une personnalité publique indienne”, indique le communiqué.

Un utilisateur s’est plaint que la société californienne ne supprime pas cette image.

“Meta a déterminé que sa décision de laisser le contenu publié était erronée et a supprimé le message pour violation de ses règles en matière d’intimidation et de harcèlement”, note le conseil d’administration.

Le deuxième cas concerne une image publiée sur un groupe Facebook de création de contenus avec l’IA, montrant « une femme nue avec un homme lui pelotant les seins ». La femme « ressemble à une personnalité publique américaine », également nommée en légende.

Meta avait supprimé l’image et l’avait ajoutée à une banque de contenu faisant partie de son système de contrôle, afin de rechercher et de supprimer automatiquement de ses plateformes les images déjà identifiées par les employés comme problématiques.

En janvier dernier, une fausse image pornographique de la superstar américaine Taylor Swift avait été vue 47 millions de fois sur X (anciennement Twitter) avant d’être supprimée par le réseau social, une quinzaine d’heures après sa mise en ligne.

L’affaire a suscité l’indignation de ses fans, de nombreuses personnalités et même de la Maison Blanche.

Selon une étude réalisée en 2019 par la société néerlandaise d’IA Sensity, 96 % des fausses vidéos en ligne sont de la pornographie non consensuelle et la plupart d’entre elles représentent des femmes, célèbres ou non.

A voir en vidéo

 
For Latest Updates Follow us on Google News
 

PREV Bilal Hassani sponsor de la marche des fiertés au Mans et en concert gratuit au Plein Champ
NEXT Ces 3 marques de céréales bien connues sont les pires pour la santé au petit-déjeuner selon ce nutritionniste – Tuxboard – .