News Day FR

Progrès d’Emotion AI et implications pour le marketing

Aujourd’hui, j’ai décidé de m’amuser avec les générateurs d’images IA et je leur ai demandé de me montrer différentes émotions sur le visage d’une personne : colère, bonheur, dégoût, etc. Comme prévu, les résultats ont affiché des expressions typiques. La colère était montrée par un front plissé et des dents serrées, le bonheur par un large sourire et le dégoût par un nez plissé.

Mais en regardant ces images, quelque chose ne me semblait pas normal. Les émotions humaines sont-elles si prévisibles ?

La recherche suggère le contraire. Les émotions sont incroyablement nuancées et la façon dont nous les exprimons varie en fonction de qui nous sommes, d’où nous venons et de ce que nous vivons à ce moment-là. Vous pourriez sourire lorsque vous êtes furieux parce que vous êtes dans un cadre professionnel ou pleurer de joie. Le contexte façonne vos émotions, et c’est là que les choses se compliquent pour Emotion AI, une technologie qui vise à détecter et interpréter nos sentiments à partir d’expressions faciales, de voix ou de texte.

Qu’est-ce que l’IA émotionnelle ?

L’IA émotionnelle, ou Affective Computing, a été conceptualisée pour la première fois dans les années 1990 par Rosalind Picard, professeur au MIT, qui soutenait que pour que les ordinateurs puissent interagir avec les humains, ils devaient comprendre les émotions. Ce qui a commencé comme une analyse des sentiments (c’est-à-dire interpréter si un morceau de texte est positif ou négatif) a évolué vers des tentatives bien plus ambitieuses visant à lire la gamme complète des émotions humaines à l’aide d’algorithmes, de caméras et de microphones.

L’analyse des sentiments est un processus beaucoup plus simple. Il recherche des mots-clés tels que « heureux » ou « frustré » dans le texte et attribue un score positif ou négatif. Emotion AI, quant à elle, tente d’approfondir les expressions faciales, les tonalités vocales ou les signaux physiologiques pour évaluer les émotions en temps réel. Alors que l’analyse des sentiments vous indique ce que quelqu’un pourrait ressentir en fonction de sa langue, Emotion AI prétend savoir ce qu’une personne ressent en fonction de son comportement. Un processus qui pourrait s’avérer utile dans des catégories telles que le service client, les ventes, le marketing et bien plus encore.

La dernière fois que l’IA émotionnelle est devenue un sujet brûlant, c’était en 2019, lorsque le monde de l’IA et du ML se concentrait sur la vision par ordinateur et non sur l’art et le contenu génératifs. À l’époque, une équipe de chercheurs publié une étude concluant que les émotions humaines ne peuvent pas être déterminées avec précision par les seuls mouvements du visage. L’idée selon laquelle nous pouvons apprendre à l’IA à reconnaître les sentiments humains en imitant la façon dont les gens lisent les expressions faciales, le langage corporel et le ton de la voix est erronée dans son hypothèse.

Les grandes entreprises technologiques comme Microsoft, IBM et Google ont toutes déployé leurs propres versions d’Emotion AI. Azure Cognitive Services de Microsoft propose la détection des émotions dans le cadre de sa suite de vision par ordinateur, permettant aux développeurs d’intégrer la reconnaissance des émotions dans leurs applications. Google, avec son API Cloud Vision, peut étiqueter les émotions contenues dans les photos comme le bonheur, la colère, la surprise ou la tristesse, sur la base d’une analyse faciale. De plus, Watson d’IBM se lance également dans l’analyse émotionnelle, en utilisant le traitement du langage naturel pour détecter les émotions dans le texte.

Mais malgré ces outils avancés disponibles aujourd’hui, la recherche montre que la reconnaissance des émotions n’est pas aussi précise qu’il y paraît. UN rapport de l’Association for Psychological Science suggère qu’il n’existe pas d’expression universelle des émotions. Une personne d’une partie du monde peut montrer son bonheur différemment d’une personne d’une autre. Plus important encore, de nombreux consommateurs estiment que leur les émotions sont négligées lors des interactions numériques, entraînant un écart d’empathie entre les humains et les machines.

Mais les entreprises déploient désormais des chatbots et des assistants IA pour servir les consommateurs, ce qui nécessite de la précision. Un secteur en particulier est enthousiasmé par la détection des émotions humaines : la publicité et le marketing.

Emotion AI : le rêve du marketeur

Imaginez un avenir dans lequel une campagne publicitaire peut détecter votre humeur et adapter le contenu en conséquence. Si vous vous sentez déprimé, l’IA pourrait vous réconforter, si vous êtes heureux, vous obtiendrez quelque chose d’optimiste et de ludique. Cela pourrait changer votre façon de magasiner et d’interagir avec les marques.

Les marques expérimentent déjà cela. Unilever a utilisé la technologie de codage facial d’Affectiva pour comprendre comment les gens réagissent émotionnellement à ses publicités, en suivant les expressions faciales pour voir si les téléspectateurs ressentent du bonheur, du dégoût ou de la surprise. De même, les réponses à la publicité sur l’IA de Coca-Cola ont été surveillé avec l’aide d’EmotionTrac, un outil qui mesure les réponses émotionnelles aux médias en capturant les expressions faciales et d’autres données biométriques. Les informations acquises visaient à créer des campagnes marketing personnalisées et axées sur les émotions.

UN récent la recherche a également exploré le potentiel de l’IA à détecter les émotions humaines dans les publications sur X (anciennement Twitter), en particulier son influence sur le comportement des donateurs envers les organisations à but non lucratif. Pour améliorer la détection des émotions, la recherche a utilisé un modèle d’apprentissage par transfert de transformateur, pré-entraîné sur de vastes ensembles de données, pour identifier des émotions spécifiques dans les tweets. Les résultats suggèrent que les émotions exprimées dans les publications sur les organisations à but non lucratif ont un impact significatif sur l’opinion publique et sur le comportement ultérieur en matière de dons.

Plus récemment, Microsoft mis à jour son assistant Copilot AI avec une voix plus engageante et des capacités d’analyse des pages Web en temps réel, visant à améliorer l’interaction des utilisateurs. Cette mise à jour a affiné le ton de Copilot, lui donnant l’impression d’être un auditeur actif, tout en introduisant également des fonctionnalités telles que « Think Deeper » pour raisonner à travers les décisions et « Copilot Vision » pour discuter de ce que les utilisateurs voient dans leur navigateur.

Le potentiel de l’Emotion AI dans le marketing est indéniable. Il offre aux marques un moyen de se connecter plus profondément avec les consommateurs. Mais que se passe-t-il lorsque l’IA en sait trop ?

Les défis de la détection des émotions

C’est une chose qu’une publicité cible les intérêts des consommateurs en fonction de leurs achats passés, mais c’est complètement différent si elle cible leurs vulnérabilités émotionnelles actuelles. La capacité d’exploiter leurs sentiments pourrait conduire à des pratiques manipulatrices, voire même les pousser à prendre des décisions.

On suppose également que l’IA pourrait se tromper. Étant donné que l’IA est encore en train d’apprendre l’orthographe, elle pourrait mal interpréter la colère d’un consommateur pour du calme. Les différences culturelles jouent un rôle dans l’expression émotionnelle, ce qui rend difficile pour l’IA d’interpréter les sentiments de manière universelle. UN une étude révélée que les participants chinois ont tendance à se concentrer davantage sur les yeux pour interpréter les expressions faciales, tandis que les Caucasiens occidentaux accordent de l’importance aux sourcils et à la bouche. Selon les résultats de la recherche, ces différences culturelles peuvent mal interpréter les signaux émotionnels lors de la communication interculturelle. Si les humains eux-mêmes ont du mal à comprendre les sentiments et les signaux des autres, comment l’IA peut-elle les détecter avec précision ?

Il y a la question de la partialité. La qualité des systèmes d’IA dépend des données sur lesquelles ils sont formés, et si les données sont biaisées en faveur de certaines populations, les résultats pourraient être biaisés. Des études indiquent que certains systèmes d’IA émotionnelle sont plus susceptibles de attribuer des émotions négatives aux visages des personnes à la peau foncée. Cela soulève des inquiétudes quant aux biais potentiels si ces technologies sont utilisées dans des domaines tels que le recrutement, l’évaluation des performances, les diagnostics médicaux ou l’application de la loi.

De plus, le problème vient des données. Les entreprises ont déjà accès à vos données et algorithmes numériques. Désormais, les consommateurs devront s’inquiéter de la vente de vos données émotionnelles à des tiers afin que les marques puissent vous montrer des publicités en fonction de votre humeur.

Si l’IA peut améliorer l’expérience client, elle risque également d’envahir nos sentiments privés et de les capitaliser à des fins lucratives. Étant donné que les émotions sont personnelles et subjectives, l’IA devrait-elle être autorisée à en savoir autant sur notre monde intérieur ?

En fin de compte, Emotion AI nécessite une réglementation minutieuse et des lignes directrices éthiques pour garantir que nos émotions restent les nôtres. La loi de l’Union européenne sur l’IA, approuvée en mai 2024, interdit l’IA de manipuler les comportements et interdit la reconnaissance des émotions dans des endroits comme les lieux de travail et les écoles. Elle permet d’identifier les expressions émotionnelles mais pas les états émotionnels. Par exemple, un responsable de centre d’appels pourrait agir sur l’IA en détectant un ton grincheux, mais ne peut pas supposer que la personne est réellement grincheuse.

Alors que la technologie continue de se développer, sommes-nous prêts pour un monde dans lequel les machines savent ce que nous ressentons et comment cela pourrait changer la façon dont nous interagissons avec elles et entre nous ? Une chose est sûre : l’IA a encore un long chemin à parcourir avant de commencer à détecter avec précision les émotions humaines. Après tout, en tant que réalisateur et producteur, Robert De Niro a dit un jour : « Les gens n’essaient pas de montrer leurs sentiments, ils essaient de les cacher. »

Decode est une série hebdomadaire dans laquelle nous décoderons ce qui se passe dans le monde des médias sociaux et de la technologie.

 
For Latest Updates Follow us on Google News
 

Related News :