un nouveau modèle capable de lire les émotions ?

un nouveau modèle capable de lire les émotions ?
un nouveau modèle capable de lire les émotions ?

« Tu as l’air heureux. (…). Voulez-vous me dire quelle est la Source de toute cette bonne humeur ? » Se faire arrêter par une machine comme celle-ci n’est pas courant. C’est pourtant ce qui est arrivé lundi 13 mai à l’ingénieur OpenAI qui a présenté au public le dernier exemplaire de son entreprise californienne : un ChatGPT nouvelle génération, qui ne se contente plus de répondre aux questions par écrit mais « discute » oralement de manière très naturelle (et féminines). Google a organisé un événement similaire le lendemain, avec une mise en scène tout aussi élaborée, et Microsoft fera de même le lundi 20 mai.

Dans la Silicon Valley, l’heure est aux assistants d’intelligence artificielle (IA). Ces interlocuteurs virtuels personnalisés serviront bientôt d’intermédiaires, selon leurs promoteurs, pour « toutes nos interactions dans le monde numérique » : recherche en ligne, gestion d’agenda, réponse aux mails… Certains rêvent même d’en faire nos « amis », chefs ou professeurs de yoga sur mesure.

Outre la génération de texte et la synthèse vocale, le défi technique de “lire les émotions” la visualisation des utilisateurs sur leur visage (filmé par une caméra) a également été rendue possible grâce aux progrès récents du deep learning (l’apprentissage en profondeur). « Ce sont des outils statistiques qui projettent des données dans un espace vectoriel et les classent », explique Nicolas Sabouret, professeur d’informatique à l’université Paris-Saclay. La joie, la tristesse ou la peur sont ainsi identifiées à partir de nombreux exemples.

Cabines d’essayage et ambiances lumineuses

La découverte d’une architecture de réseau neuronal appelée Transformer, en 2017, a donné un sérieux élan à un domaine fondé en 1998 : l’informatique affective. « Les résultats sont beaucoup plus fluides et réalistes aujourd’huipoursuit Nicolas Sabouret. Surtout, OpenAI a sorti ces techniques des laboratoires et les a mises à disposition du grand public. » « Cette histoire remonte loin ! » “, ajoute Jean-Gabriel Ganascia, chercheur au laboratoire informatique de Paris 6 (Lip6). « Très tôt, en informatique, il y a eu cette intuition que pour rationaliser les relations avec les machines, il ne fallait pas attendre les mots mais privilégier la compréhension immédiate. Un énorme effort a donc été fait sur la conception des ordinateurs pour rendre les ordinateurs « conviviaux ». En parallèle, nous avons également cherché à capter les émotions de l’utilisateur, considérant qu’il fournirait des informations qu’il communiquerait moins facilement. »

Mesurer la satisfaction d’un client quant à son apparition dans une cabine d’essayage, adapter la luminosité d’une pièce à l’ambiance ambiante, anticiper la somnolence d’un automobiliste, vérifier la concentration d’étudiants ou de salariés par visioconférence… Les cas pratiques se sont multipliés ces dernières années, développés par des start-up comme Affectiva (américaine) ou Picxel (française). Sans pour autant percer auprès du grand public.

Préjugés et discrimination

Cette technologie est en effet controversée en raison de son manque de fiabilité et des biais qu’elle véhicule. Même les mastodontes s’y sont cassé les dents. En juin 2022, Microsoft a annoncé qu’il cesserait le développement et la vente de tels outils en raison d’un “manque de consensus scientifique” sur la définition des émotions. Google avait fait de même quelques mois plus tôt. « En fait, les Gafam n’avaient pas arrêté de développer ces technologies, mais ils les considèrent désormais suffisamment matures pour prendre ce risque de réputation »observe Giada Pistilli, responsable de l’éthique de la start-up française d’IA Hugging Face.

Toutefois, selon ce spécialiste, le problème des biais est loin d’être résolu. « Je doute fort que ces outils réussissent à surmonter les différences culturelleselle croit. Le sourire est certes très bien vu aux Etats-Unis, mais dans toute une partie de l’Asie, il est considéré comme un signe de moquerie ! Ces technologies relaient une vision du monde très centrée sur la culture occidentale. » Autre problème, selon Giada Pistilli : l’anthropomorphisation de la machine, qui peut conduire à lui attribuer des intentions. « On a vu, l’autre soir, ChatGPT complimenter le présentateur de l’événement OpenAI : à quoi ça sert ? Malgré toute la littérature qui s’est développée ces dernières années pour critiquer cette manière d’humaniser, voire de sensualiser la technologie, elle galope jusqu’à la moindre démonstration publique légèrement séduisante. »

 
For Latest Updates Follow us on Google News
 

PREV Les petits Gibus reviennent sur scène le samedi 29 juin – .
NEXT Samsung, Xiaomi, Google… les meilleures offres pour changer de smartphone pendant les soldes d’été