Imaginez un petit assistant toujours à vos côtés. Une sorte de Jiminy Cricket du futur, qui répond à vos questions, vous conseille et surtout agit à votre place. Il accède à votre agenda, vos conversations, vos applications préférées… Un email sans réponse ? Il écrit et envoie. Votre plus jeune n’a pas fait contrôler ses dents depuis un an ? Il prend rendez-vous. Votre paire de chaussures a trouvé acheteur sur une application ? Il valide l’affaire. Pratique, bien qu’un peu pénible.
Plus forts que les chatbots comme ChatGPT et ses 200 millions d’utilisateurs actifs par mois, voici les « agents ». Leur promesse : non pas simplement produire du contenu à partir d’une simple instruction, mais agir de manière autonome. “Nous revenons de l’illusion selon laquelle les grands modèles de langage, ces IA entraînées sur d’énormes quantités de texte pour produire des réponses proches des humains, auraient une connaissance du monde”, cconfirme Pierre-Carl Langlais, chercheur et co-fondateur de la startup Pleias, qui développe des modèles de langage open Source, donc librement accessibles. Grâce aux « agents » nous sommes propulsés vers une nouvelle ère. Celui d’une IA proactive, capable de penser et de s’organiser.
Avec ses « agents », Salesforce s’affirme comme l’entreprise qui rentabilisera l’IA
De nouvelles interactions
De Google à OpenAI en passant par Meta, tous les acteurs de l’industrie se tournent vers cette nouvelle génération d’intelligence artificielle. Mais pour le moment, tout le monde cherche à comprendre à quoi ressemble ce Jiminy Cricket. OpenAI et Meta, en particulier, souhaitent créer des systèmes multitâches et généraux. Pour d’autres, comme les français LightOn et H ou le géant américain du logiciel Salesforce, mieux vaut « agents » hyperspécialisé sur des tâches spécifiques. Moins omnipotent, mais plus facile à mettre en œuvre.
La difficulté est aussi de trouver comment nous allons y répondre. Ces dernières semaines, c’est un format audio qui se démarque. L’outil vient de Google et s’appelle NoteBookLM. Sa récente fonctionnalité « Audio Overview », qui synthétise des documents en quelques clics et les transforme en podcast d’une dizaine de minutes, a bluffé la communauté IA. Les deux animateurs virtuels, toujours sur un ton chaleureux et enthousiaste, parlent de tout : d’un rapport de 250 pages sur l’environnement, d’un article scientifique très approfondi, d’une vidéo YouTube de 2 heures… Mais aussi de tout autre document plus trivial comme comme un profil LinkedIn, des échanges de SMS ou encore un relevé bancaire [sic]. Les expériences de certains internautes sont devenues virales, partagées des millions de fois.
Avec ses « agents », Salesforce s’affirme comme l’entreprise qui rentabilisera l’IA
Si NoteBookLM n’est pas un agent, son succès témoigne de l’intérêt croissant pour de nouvelles interactions avec la machine, au-delà du texte et de l’écriture. C’était également l’objectif de la petite équipe du Google Lab. Raiza Martin, la chef de produit de ce projet expérimental que Google envisage désormais de commercialiser, le confirme à La Tribune. « Notre objectif était d’aider les utilisateurs à interagir avec les sources. L’audio était un bon vecteur, mais un résumé lu par une voix de synthèse ne suffit pas. Nous voulions créer quelque chose d’agréable, d’utile et de nouveau.
Les entreprises technologiques s’intéressent également à la manière d’ajouter des capacités de raisonnement et de planification à l’IA générative. Des compétences indispensables pour pouvoir créer ces fameux « agents ». En septembre, OpenAI a présenté sa nouvelle famille de modèles d’IA, baptisée « o1 » car elle « remet les compteurs à zéro ». Elle est capable de mieux raisonner que l’IA d’aujourd’hui en organisant des « chaînes de pensées » avant de répondre, c’est-à-dire en décomposant sa réponse au problème posé en étapes.
o1 est un premier pas vers l’autonomie de l’IA promise par l’industrie. Mark Zuckerberg, le fondateur et directeur de Meta, parle d’un avenir où chaque créateur de contenu sur Instagram pourrait avoir son propre « agent », capable de gérer à sa place ses interactions avec sa communauté. Anthropic, l’outsider américain créé par deux anciens salariés d’OpenAI, a récemment impressionné par sa démonstration d’une IA capable d’utiliser un ordinateur de manière autonome. Pour le grand public, la vidéo ne ressemble à rien d’autre qu’à des clics de souris irréguliers. Mais pour les spécialistes, cette fonctionnalité appelée « Utilisation de l’ordinateur » est une étape incontournable. “Ce processus itératif d’essais et d’erreurs, rendu possible par l’interaction avec l’ordinateur, permet à l’IA d’apprendre de ses propres expériences”, note Edouard Grave, chercheur et co-fondateur du laboratoire français Kyutai.
Si l’industrie est à la recherche d’un nouvel élan, c’est en partie parce qu’un “vent de désillusion souffle en ce moment”, reconnaît Sylvain Duranton, directeur de BCG X, l’entité tech du cabinet de conseil. Particulièrement parmi les entreprises, qui croyaient beaucoup aux super-pouvoirs des grands modèles de langage pour améliorer leurs performances, et ont finalement été déçues. Selon diverses études réalisées par le cabinet de conseil, deux tiers des entreprises ne voient pas de résultats après avoir investi dans l’intelligence artificielle générative.
L’IA générative en entreprise, mode d’emploi
« Les entreprises n’étaient pas prêtes, elles ont sous-estimé le travail de préparation », raconte Sylvain Duranton. Pour exploiter véritablement la technologie, il faut changer sa façon de travailler, ce n’est pas magique. Nous devons revoir complètement certains processus et nettoyer les données de l’entreprise. »il juge. Les quelques entreprises qui ont fait cet effort parviennent à en tirer profit, en partie dans les services de vente, de marketing et de gestion de la chaîne d’approvisionnement. [voir plus bas, Ndlr]. Certains gagneraient même « des dizaines de millions d’euros de marge », selon le BCG X.
Un futur collègue virtuel
Emilie Sidiqian, directrice générale de Salesforce France (lire l’interview page V) confirme également cette période de désenchantement dans le monde professionnel. Pour elle, les chatbots actuels sont « décevants » car ils se contentent pour la plupart d’écrire des emails et de rendre compte des réunions. Au contraire, le « agents » promettre de devenir un collègue quasi virtuel capable de répondre à un client, de le guider, de fixer des objectifs et de les mettre en œuvre. Mais Sylvain Duranton prévient : le déploiement des « agents » ne se fera pas sans heurts. « Ce n’est pas parce que la technologie s’améliore que les entreprises seront plus prêtes » il alerte.
Pour certains observateurs, les limites ne sont pas seulement organisationnelles, elles sont aussi technologiques et environnementales. « Il devient compliqué de faire progresser les modèles linguistiques sans repousser les limites de notre consommation énergétique. » souligne Édouard Grave. Le chercheur évoque également un autre plafond de verre : celui des données accessibles. Si ChatGPT et ses amis réussissent si bien dans certaines tâches, c’est parce qu’ils ont su absorber toutes les données textuelles du Web. Mais cela ne suffit pas pour aller plus loin, notamment vers des connaissances plus fines et expertes. « Avoir des données de haute qualité est un processus long et coûteux car il nécessite une annotation humaine, remarque Edouard Grave. Pour créer un expert en IA en mathématiques par exemple, « il faudrait faire appel aux universitaires pour créer un grand nombre de problèmes et de solutions à soumettre aux modèles », précise-t-il.
De plus, les modèles linguistiques manquent de contact avec le monde extérieur pour devenir véritablement autonomes. « Leurs limites, ce sont leurs erreurs, leurs absurdités, bref leur manque d’alignement avec le monde physique. » estime Pierre-Yves Oudeyer, directeur de recherche à Inria. Selon lui, une des clés est de les ancrer dans un environnement extérieur. En les connectant à un ordinateur comme le faisait Anthropic, mais aussi au monde physique via un robot. Dans son laboratoire, le chercheur et ses collègues tentent même d’instiller une forme de curiosité envers les machines. « L’idée est que l’IA se fixe des objectifs intéressants »une motivation intrinsèque qui les pousserait à s’intéresser à leur environnement.
Pour ce faire, son équipe s’intéresse au fonctionnement du cerveau humain. « La recherche montre que nous apprenons mieux lorsqu’un sujet est complexe au début, mais finit par progresser. Si le sujet est trop facile, ou trop difficile, on se désintéresse. » Ce mécanisme appliqué aux machines pourrait leur permettre de devenir plus autonomes.
« Utiliser l’IA est une question de vie ou de mort pour une entreprise » (Emilie Sidiqian, directrice France de Salesforce)
Les « agents » capables de raisonner préfigurent l’avènement, plus incertain, des super-intelligences, voire de « l’intelligence générale artificielle ». Ces concepts, loin de faire l’unanimité dans le monde scientifique mais privilégiés par les entreprises, désignent des IA qui surpassent l’humain dans toutes leurs capacités. Avant d’y parvenir, Edouard Grave estime qu’il faudra lever de nombreux obstacles technologiques. Comme d’autres, le chercheur doute que l’IA générative soit suffisante pour créer une super-intelligence. “Mais il est impossible de prédire quoi que ce soit avec certitude, il prévient. Si, il y a deux ans, on m’avait prévenu des progrès réalisés par les modèles de langage et de la course à la puissance de calcul que cela provoque, j’aurais eu du mal à y croire.
Ce Graal se heurte également à un plafond auquel l’intelligence artificielle est déjà confrontée : les limites planétaires. (voir page VI). L’enjeu est aussi de savoir si c’est vraiment le projet de société que l’on souhaite. Dans quelle mesure sommes-nous prêts à déléguer notre travail, voire notre quotidien, à ces agents ?