OpenAI déploie son modèle vocal avancé

OpenAI déploie son modèle vocal avancé
OpenAI déploie son modèle vocal avancé

OpenAI a lancé une version avancée de l’assistant vocal d’OpenAI, créant la confusion parmi ses utilisateurs.

Quelques jours après avoir lancé une version plus « consciente » de ChatGPT dans l’écriture, o1, OpenAI continue de mettre la pression sur ses concurrents en lançant une version plus avancée de son assistant vocal. Elle avait été annoncée en juin 2024.

Disponible pour les abonnés à ChatGPT Plus, la version payante du chatbot, cette version avancée vous permet de bénéficier de plusieurs améliorations importantes qui ne laissent personne indifférent.

Premiers retours

Les premiers retours sont donc mitigés. Comme l’explique The Verge, qui a pu y avoir accès, cet assistant vocal plus avancé laisse place à l’étonnement, mais aussi au malaise : « Notre collègue Kylie a eu la chance de découvrir cette fonctionnalité avant sa sortie et elle l’a laissée à la fois surprise et embarrassée. »

Dans les commentaires, on peut voir des utilisateurs surpris par les premiers résultats : « Pouvoir simplement avoir une conversation sur un sujet particulier comme l’histoire de la politique aux États-Unis est une bonne alternative à une visite sur Wikipédia (…) mais je reste sceptique sur le fait qu’une personne s’abonne simplement pour en profiter. »

Avec cette version avancée de son assistant vocal, OpenAI vise à rendre les conversations entre lui et l’utilisateur plus naturelles. Lorsqu’on lui pose une question, il va prendre en compte tous les mots d’une requête pour rendre sa réponse plus consciente, par exemple en utilisant l’émotion dans sa voix. Dans l’exemple révélé par OpenAI, il lui est demandé de trouver un message d’excuse en mandarin pour être arrivé en retard chez la grand-mère fictive de l’utilisateur.

On voit ChatGPT prendre d’abord le temps d’expliquer que « c’est une bonne chose de s’excuser d’être en retard », avant de commencer à imaginer une réponse. Mais pendant ce temps, l’utilisateur l’interrompt et lui demande de traduire le message en mandarin, ce que fait l’assistant vocal en prenant en compte les éléments passés de la conversation.

Ces fonctionnalités avancées sont livrées avec cinq voix différentes. Elles peuvent également adopter un accent localisé si nécessaire. Notez cependant qu’elles ne sont pas encore disponibles en Europe. Elles le seront « bientôt », annonce OpenAI.

 
For Latest Updates Follow us on Google News
 

NEXT c’était proche de l’immobilité