Un modèle d’IA d’OpenAI permet désormais au robot humanoïde Figure 01 d’avoir des conversations complètes avec les humains. Il peut également ranger la vaisselle et servir de la nourriture.

La startup Figure AI a publié une mise à jour de son robot humanode Figure 01 avec voix. Cette mise à jour donne au robot la possibilité de parler grâce à l’intégration d’un modèle de langage développé par OpenAI. La société a décrit la figure 01 comme « un robot humanode autocorrectif qui apprend à accomplir des tâches en observant les humains ». La figure 01 aurait appris à préparer une tasse de café en regardant des images d’un humain en train de le faire et peut désormais répondre aux questions grâce à l’intégration de la technologie OpenAI. Cependant, il n’est pas clair si la figure 01 est basée sur le même modèle de langage que ChatGPT, à savoir GPT-4.

La figure 01 est un robot humanode développé par la société de robotique Figure AI. La société a récemment publié une vidéo de démonstration révélant pour la première fois les capacités du robot. Dans la nouvelle vidéo, un technicien demande à la figure 01 d’effectuer une série de tâches simples dans un environnement de test minimaliste, semblable à celui d’une cuisine. Il demande d’abord au robot de lui donner à manger et reçoit une pomme. Il demande ensuite à la figure 01 d’expliquer pourquoi il lui a tendu une pomme alors qu’il ramassait les déchets. Le robot répond à toutes ses questions.

Le robot a répondu d’une manière étrangement humaine : Je t’ai donné la pomme parce que c’est le seul objet comestible sur la table que je pouvais te donner. La voix est robotique, mais semble amicale. Dans la vidéo, Figure AI indique que la conversation est alimentée par une intégration avec la technologie OpenAI, qui est à l’origine de ChatGPT. Cependant, il est peu probable que la figure 01 elle-même utilise ChatGPT, car le chatbot n’utilise normalement pas de marqueurs de pause tels que « um », ce que fait ce bot. La figure 01 a répondu aux questions du technicien tout en rangeant les poubelles sur la table.

Ce faisant, le robot démontre sa capacité à accomplir simultanément des tâches physiques et mentales distinctes. L’entreprise affirme que la figure 01 n’est pilotée par personne. Il prend des décisions basées sur les stimuli externes qui lui sont présentés. Selon les critiques, cela le place loin devant le robot humanoïde Optimus de Tesla. Optimus peut marcher lentement comme un humain et effectuer des gestes délicats, notamment tenir un œuf ou faire des squats. A part ça, Optimus semble jusqu’à présent moins impressionnant. Optimus est également encore loin derrière le robot Atlas de Boston Dynamics.

Le système qui effectue le travail « mental » dans la vidéo ci-dessus est un modèle de langage visuel (VLM) développé par Figure AI OpenAI. Avec OpenAI, la Figure 01 peut désormais avoir des conversations complètes avec les gens. Les modèles OpenAI fournissent une intelligence visuelle et linguistique de haut niveau. Les réseaux neuronaux de la figure 01 fournissent des actions robotiques rapides, de bas niveau et adroites, a expliqué la société dans un article sur X. La vidéo de démonstration ne fournit pas plus de détails sur ce modèle de langage visuel d’OpenAI.

Si tout ce qui est montré dans la vidéo fonctionne comme prévu, cela signifie un progrès dans deux domaines clés de la robotique. Selon les experts, la première avancée concerne l’ingénierie mécanique qui est à la base des mouvements adroits et autocorrectifs que les humains peuvent effectuer. Il s’agit de moteurs, d’actionneurs et de pinces de haute précision, inspirés des articulations ou des muscles, et de la commande moteur permettant de les manipuler pour effectuer une tâche et tenir délicatement des objets. (Dans la vidéo de démonstration de Tesla, on peut voir Optimus saisir délicatement un œuf avec sa main.)

Même le fait de prendre une tasse, une chose à laquelle les humains pensent à peine consciemment, utilise un traitement embarqué intensif pour diriger les muscles dans un ordre précis. La deuxième avancée concerne le traitement du langage naturel (NLP) en temps réel grâce à l’ajout du moteur spécifique d’OpenAI, qui devrait être aussi immédiat et réactif que ChatGPT lorsque vous tapez une requête. Il a également besoin d’un logiciel pour traduire ces données en audio, c’est-à-dire en parole. La PNL est un domaine de l’informatique qui vise à donner aux machines la capacité de comprendre et de transmettre la parole.

Bien que les images soient impressionnantes, elles soulèvent des doutes quant aux capacités réelles de la Figure 01. Par exemple, en réponse à une des questions du technicien au début de la vidéo, la Figure 01 commence sa phrase par un « euh » rapide et répété puis le mot « je », comme un humain qui met une fraction de seconde à mettre ses pensées en ordre avant de parler. Pourquoi (et comment) un moteur vocal d’IA inclurait-il de tels tics de parole aléatoires et semblables à ceux des humains ?

Dans l’ensemble, l’inflexion est également suspecte d’être défectueuse, car elle ressemble trop à la cadence naturelle et inconsciente que les humains utilisent lorsqu’ils parlent. Certains observateurs pensent qu’il s’agit d’un pré-enregistrement destiné à présenter le travail de Figure AI plutôt qu’un test sur le terrain en direct. Mais si, comme l’indique la légende de la vidéo, tout est véritablement le résultat d’un réseau de neurones et que la Figure 01 réagit en temps réel, nous venons de faire un autre pas de géant vers le futur.

Figure AI a récemment été évalué à 2,6 milliards de dollars et a attiré des investissements importants de la part du co-fondateur d’Amazon, Jeff Bezos, ainsi que de Microsoft et du géant de la technologie Intel, qui soutiennent tous deux OpenAI. Figure AI a précédemment déclaré que son objectif était de produire des robots capables d’accomplir les tâches quotidiennes de manière autonome. De son côté, Tesla semble déjà prête à utiliser son robot Optimus comme main d’œuvre dans ses usines de production de véhicules électriques.

Et même si les startups, les universités et les groupes de recherche ont fait de grands progrès dans le domaine de la mécanique physique au cours de la dernière décennie, nous n’avons pas encore vu une collaboration et une intégration aussi poussée avec un modèle de langage. avance. Il est peu probable que nous voyions la figure 01, ou tout autre robot humanode, entrer dans le bureau et discuter avec la fontaine à eau de sitt. Cependant, les premières usines produisant des robots humanoïdes se profilent à l’horizon.

De plus, les coûts de construction de ce type de technologie ont fortement diminué ces dernières années, et comme de plus en plus d’entreprises de robotique reçoivent des millions de dollars de financement, il est impossible de vraiment évaluer la rapidité avec laquelle les choses se produisent. évoluer.

Et toi ?

Quelle est votre opinion sur le sujet ?

Que pensez-vous du robot humanoïde Figure 01 et de ses capacités ?

Si ses capacités étaient réelles, qu’est-ce que cela signifierait pour l’industrie ?

Les robots humanoïdes parlants des films de science-fiction sont-ils désormais à notre portée ?

Voir aussi

Bientôt, tout le monde possédera un robot, comme aujourd’hui une voiture ou un téléphone, affirme le fondateur de Figure AI, mais la question du coût des robots fait débat

Jeff Bezos, fondateur d’Amazon, et Nvidia rejoignent OpenAI pour financer la startup de robots humanoïdes Figure AI qui lève 675 millions de dollars pour une valorisation de 2 milliards de dollars

Tesla semble prêt à utiliser son robot humanoïde Optimus comme main-d’œuvre pour produire des voitures électriques et recherche des ingénieurs pour apprendre au robot à travailler dans ses usines

 
For Latest Updates Follow us on Google News
 

PREV Les grandes marques de bouteilles d’eau contaminées n’en boivent plus – Tuxboard
NEXT qui sont les grands gagnants et les perdants du système fiscal actuel ? – .