La mise à jour logicielle Meta v11 pour les lunettes intelligentes Ray-Ban peut désormais utiliser Live AI, ce qui permet à Meta AI de voir en permanence ce que les utilisateurs voient et de fournir une aide contextuelle en - réel via des commandes vocales.
Les utilisateurs peuvent poser des questions sans utiliser la commande « Hey Meta », et Meta AI se souvient des choses que vous avez peut-être mentionnées plus tôt dans la conversation. Les utilisateurs peuvent interrompre la conversation à tout moment pour changer de sujet ou poser des questions complémentaires. L’application apprendra également les habitudes de l’utilisateur et éventuellement « donnera des suggestions utiles avant même que vous les demandiez ».
Live Translation traduit le discours en anglais, espagnol, français ou italien en - réel. Lorsqu’ils interagissent avec une personne parlant une autre langue, les utilisateurs peuvent entendre les traductions en - réel des locuteurs ou visualiser les transcriptions sur un téléphone connecté.
L’IA en direct et les traductions en direct sont disponibles pour les membres du programme d’accès anticipé de Meta. Meta précise que « ces fonctions d’IA ne sont pas toujours correctes » et que le programme d’accès anticipé est limité aux États-Unis et au Canada.
En plus de ces fonctionnalités, Meta a également annoncé l’intégration du service de reconnaissance musicale Shazam. Les utilisateurs peuvent trouver le nom d’un morceau de musique en disant « Hey Meta, quelle est cette chanson ? » aux États-Unis et au Canada.
Related News :