Jusqu’à présent, les systèmes d’IA généraient du contenu tel que du texte, des images et des vidéos. Google veut désormais aller plus loin avec une nouvelle génération de son système Gemini : à l’avenir, l’IA devra effectuer certaines tâches de manière autonome en tant qu’assistante.
Google l’a annoncé mercredi à l’occasion de l’anniversaire de la première première de Gemini à Mountain View. Il est concevable que « l’agent IA » puisse, par exemple, trouver les composants d’un projet de loisir dans des magasins en ligne et les placer de manière autonome dans le panier. Cependant, le processus de commande proprement dit sera toujours effectué par l’utilisateur.
“L’IA devrait devenir plus utile”
Le PDG de Google, Sundar Pichai, a déclaré que la première génération de Gemini 1.0 visait à organiser et à comprendre les informations. “Gemini 2.0 vise à être beaucoup plus utile.”
Les nouveaux assistants IA font partie du « Projet Mariner », qui a été mis en œuvre avec la nouvelle génération d’IA. Gemini 2.0 a été développé pour l’ère des agents, a déclaré Tulsee Doshi, responsable de Google.
Le système est capable d’utiliser des outils intelligents et peut accéder directement aux produits Google tels que la recherche. Il peut même exécuter du code de programme. “Ces capacités donnent naissance à des agents capables de penser, de mémoriser, de planifier et même d’agir au nom des utilisateurs.”
Cliquer comme un humain
« Mariner » se comporte donc exactement de la même manière que les utilisateurs humains le feraient dans un navigateur, a souligné Doshi. “Il peut cliquer, taper et faire défiler, tout comme vous en tant qu’utilisateur.” Cependant, le système identifie également un certain nombre de tâches que l’agent ne doit pas effectuer au nom d’un utilisateur.
“Un bon exemple est que Mariner ne finalise pas un achat sans demander au préalable à l’utilisateur s’il souhaite vraiment le faire.” «Mariner» sera d’abord testé auprès de sujets de confiance avant d’être mis à la disposition du grand public.
Nouvelles lunettes IA
Dans le cadre du « Projet Astra », Google fait désormais avancer un projet de recherche basé sur Gemini 2.0 pour explorer l’environnement, qui a été présenté pour la première fois lors de la conférence des développeurs Google I/O au printemps dernier.
À l’avenir, les utilisateurs recevront non seulement des informations utiles sur leur smartphone, mais également sur leurs lunettes intelligentes. Elles s’apparentent aux lunettes Ray-Ban du groupe Facebook Meta, qui permettent par exemple de reconnaître des bâtiments ou des œuvres d’art, ou encore d’aider à cuisiner.
Pour les développeurs de logiciels qui proposent leurs propres solutions basées sur l’IA de Google, la variante du système Gemini Flash est particulièrement pertinente. Il peut fonctionner non seulement sur de gros ordinateurs dans des centres de données, mais également localement sur des ordinateurs personnels ou sur certains modèles de smartphones. Google a présenté mercredi Gemini Flash 2.0, qui, selon la société, offre des performances améliorées avec des - de réponse tout aussi rapides.