les lunettes connectées devancent Google avec ces nouvelles fonctionnalités

les lunettes connectées devancent Google avec ces nouvelles fonctionnalités
les lunettes connectées devancent Google avec ces nouvelles fonctionnalités

Après avoir présenté de nouvelles fonctionnalités lors du Meta Connect, certains utilisateurs Ray-Ban connectés commencent à en bénéficier avec le déploiement d’une nouvelle mise à jour.

Grâce à l’intégration de la langue française, les lunettes connectées de Meta ont gagné en popularité en . Couplés aux nouvelles fonctionnalités d’IA annoncées lors de Meta Connect, ils s’imposent comme un objet résolument futuriste. Un avenir désormais à portée de main, puisque la mise à jour déployant ces nouvelles capacités est en cours de déploiement, rapporte Centre Android.

Une IA au service de l’utilisateur

L’IA partout, tout le -

C’est sur son blog que Meta révèle la nature de cette mise à jour. L’entreprise évoque tout d’abord l’arrivée deIA en direct : L’intelligence artificielle de Meta « peut voir ce que vous voyez en continu et converser avec vous plus naturellement que jamais » sans avoir à utiliser la commande ” Salut Meta « . Parmi les usages répertoriés, Meta note la possibilité pour les utilisateurs d’obtenir des conseils pour préparer un repas ou encore découvrir un nouveau quartier. La promesse de Meta est simple : faire « des suggestions utiles avant même de les poser ».

Une fonctionnalité qui n’est pas sans rappeler la manière dont Gemini, l’IA de Google, lui permet de s’adresser à ses utilisateurs.

Multilingue sans effort

La deuxième fonctionnalité au cœur de cette mise à jour est la possibilité de traduction en direct : bien entendu, les lunettes ont pour objectif de traduire en - réel les échanges s’effectuant en anglais, espagnol, français ou italien via les haut-parleurs des lunettes ou en transcription écrite sur le smartphone de l’utilisateur.

Une fonctionnalité qui n’est pas sans rappeler le système de traduction que propose déjà Samsung avec son Z Flip 6 ou ses écouteurs. Google, de son côté, veut aller plus loin avec son projet de lunettes connectées avec un affichage directement dans les verres.

N’oubliez pas les paroles

La dernière intégration concerne l’arrivée de Shazam au sein des lunettes. L’entreprise indique qu’il sera possible de retrouver une chanson diffusée autour de soi grâce à la commande vocale” Hey Meta, c’est quoi cette chanson ? ».

Pour le moment, toutes ces fonctions ne sont accessibles qu’aux membres du programme Meta advance, lui-même accessible uniquement aux États-Unis et au Canada. Centre Androidrapporte que ces fonctionnalités devraient arriver dans une version stable d’ici 2025. Reste à savoir si ces fonctionnalités bénéficieront d’un déploiement en Europe avec la mise en œuvre de l’IA Act.

Rappelons que Google a annoncé la semaine dernière le développement de ses propres lunettes connectées, basées sur Android XR et conçues en partenariat avec plusieurs constructeurs.


Rejoignez-nous un mercredi sur deux sur Twitch, de 17h à 19h, pour suivre en direct le spectacle SURVOLTÉS produit par Frandroid. Voiture électrique, vélo électrique, conseils d’experts, jeux ou témoignages, il y en a pour tous les goûts !

 
For Latest Updates Follow us on Google News
 

PREV AirDrop ne vous permet pas de voler vos cartes bancaires
NEXT L’émulateur Delta fait encore un pied de nez à Apple