Tech&Co
Facebook

Les lunettes Meta Ray-Ban peuvent désormais traduire les conversations en direct

placeholder video
Meta a annoncé de nouvelles fonctions d'intelligence artificielle pour ses lunettes Meta Ray-Ban. En plus de la traduction en direct, il sera aussi possible d'interroger Meta AI par rapport à ce qu'il voit à travers les lunettes.

Des lunettes encore plus intelligentes. Ce mercredi 23 avril, Meta a annoncé l'arrivée de nouvelles fonctions sur les lunettes Meta Ray-Ban. Pour commencer, elles seront capables de traduire en direct des conversations, fonction qui était jusqu'ici réservée aux inscrits au "programme d'accès anticipé aux lunettes Meta Ray-Ban" et qui est en cours de déploiement dans le monde entier.

Pour l'activer, il suffira de dire "Hé Meta, lance la traduction en direct". Les lunettes pourront alors traduire des propos en anglais, en français, en italien et en espagnol. Cela sera même possible hors connexion, si l'utilisateur a téléchargé le pack de langue concerné à l'avance.

De nouvelles interactions avec les lunettes connectées

Alors que l'assistant Meta AI est disponible sur les lunettes connectées depuis quelques mois en France et d'autres pays européens, les utilisateurs auront la possibilité, dès la semaine prochaine, d'interagir avec lui en fonction de ce qu'il voit à travers celles-ci.

Parmi les autres nouveautés, Meta indique que tous les utilisateurs pourront bientôt envoyer et recevoir des messages directs, des photos, mais aussi passer des appels audio et vidéo depuis Instagram sur leurs lunettes. Le groupe californien a aussi commencé à étendre l'accès aux applications musicales (Spotify, Apple Music...) au-delà des États-Unis et du Canada afin de leur permettre d'écouter de la musique avec les Meta Ray-Ban. Mais, cela fonctionnera uniquement si la langue par défaut est l'anglais.

Kesso Diallo