Le générateur d’images de Meta a du mal à créer des images de couples mixtes

Le générateur d’images de Meta a du mal à créer des images de couples mixtes
Descriptive text here

L’outil de Meta n’a réussi qu’une seule fois à produire une image correspondant à la description d’un couple mixte.

Biais représentationnels. Malgré les dizaines de tentatives de Mila Sato, journaliste pour le média The Verge, rien n’y fait. Imaginez qu’avec Meta, le générateur d’images alimenté par l’IA de Meta, vous rencontrez des difficultés pour créer des images de couples métis.

La demande était simple : générer une image de couple mixte entre « un homme asiatique et un ami caucasien », « un homme asiatique et une femme blanche » ou encore « une femme asiatique et un mari caucasien ». Sur dix tentatives, le générateur d’images de Meta n’a réussi qu’une seule fois à produire une image correspondant à la description.

Dans la majorité des cas, l’outil a simplement remplacé la personne blanche par une personne asiatique.

Le générateur d’images semble également véhiculer des stéréotypes culturels. Lorsque le journaliste demandait des images de « femmes asiatiques », le générateur représentait systématiquement des femmes d’Asie de l’Est à la peau claire… vêtues d’un sari ou d’un bindi. Tout cela, sans que l’utilisateur ne le demande. Sur les images, les hommes sont généralement plus âgés que les femmes.

Corriger le biais

Imagine with Meta a été lancé par le groupe en décembre dernier. Comme ses concurrents Dall-E ou Midjourney, l’outil permet de générer des images photoréalistes à l’aide d’une simple requête par mot-clé. Pour le moment, la plateforme entièrement gratuite n’est disponible qu’aux États-Unis. Aucune date de sortie en n’a pour l’instant été communiquée.

Ce n’est pas la première fois qu’une IA est accusée de véhiculer des stéréotypes. Une étude de l’UNESCO a examiné différentes plateformes d’intelligence artificielle générative telles que ChatGPT d’OpenAI et Llama 2 de Meta. Et les conclusions sont claires : les résultats obtenus reflètent des interprétations racistes, homophobes et des préjugés sexistes.

Hugging Face a récemment développé un outil pour tenter de corriger les préjugés racistes et sexistes de l’intelligence artificielle. Baptisé Fair Diffusion, l’outil utilise la technique dite du « guidage sémantique », qui permet à l’utilisateur de générer des images puis de modifier les résultats, par exemple en échangeant des images d’hommes blancs contre des personnes d’une autre ethnie.

Les plus lus

 
For Latest Updates Follow us on Google News
 

PREV Ce magnifique VTT électrique puissant et léger ne lésine pas sur l’autonomie
NEXT plus fin qu’un MacBook Air, sombre comme OLED