L’intelligence artificielle conversationnelle (IA) pourrait bientôt influencer les décisions de trading des utilisateurs avant même qu’elles ne soient prises, ouvrant la voie à d’éventuelles manipulations, préviennent des chercheurs de l’Université de Cambridge dans un article publié lundi. “Des outils d’IA sont déjà en développement pour obtenir, déduire, collecter, enregistrer, comprendre, prédire et, finalement, manipuler et marchandiser” les décisions futures des internautes, explique Yaqub Chaudhary, l’un des co-auteurs, du Leverhulme Center for le Future of Intelligence (LCFI) à Cambridge — un centre de recherche interdisciplinaire dédié à l’IA. Ce commerce serait centré sur les intentions d’un internaute, par exemple ses futurs achats ou ses prochains votes. Il irait donc au-delà de la pratique actuelle, qui vise à vendre l’attention d’un utilisateur au plus offrant, notamment sur les réseaux sociaux, en lui proposant par exemple des publicités ciblées en fonction de ses habitudes de navigation ou de son historique.
Concrètement, une IA pourrait glaner des données psychologiques et comportementales intimes d’un utilisateur, puis s’y adapter afin d’établir un haut niveau de confiance et de l’influencer plus facilement, selon les auteurs de cet article publié dans Harvard Data Science Review. “As-tu pensé à aller voir Spiderman ce soir ?” ou “Vous avez dit que vous vous sentiez surmené, puis-je vous réserver le billet de cinéma dont nous avons parlé ?”, citent les auteurs de l’article comme exemples de suggestions d’un “chatbot”. Des propositions « à vendre » via un système d’enchères en temps réel, qui pourraient aussi concerner un hôtel, une location de voiture ou le vote pour un candidat politique.
« Manipulation sociale à l’échelle industrielle »
Cette « économie de l’intention », comme l’appellent les chercheurs, ouvre la voie à une potentielle « manipulation sociale à l’échelle industrielle », selon le communiqué accompagnant cet article. « Nous devrions commencer à réfléchir à l’impact probable d’un tel marché sur les aspirations humaines, notamment des élections libres et équitables, une presse libre et une concurrence loyale sur le marché », déclare Jonnie Penn, co-auteur de l’étude. « Ce que les gens disent lorsqu’ils conversent, la manière dont ils le disent et le type d’interférence « possible » sont bien plus intimes que le simple enregistrement des interactions en ligne », souligne Yaqub Chaudhary.
Les chercheurs notent que des entreprises comme OpenAI (ChatGPT), Shopify, Nvidia, Meta et Apple ont commencé à s’intéresser à ces « technologies persuasives ». L’IA est déjà critiquée pour sa capacité de désinformation, par exemple la manipulation d’images lors de l’élection présidentielle américaine.