Les lunettes intelligentes Ray-Ban de Meta se dotent de rappels par IA et de fonctionnalités de traduction

Image d'illustration. Rayban Metaessilorluxottica
Cette fois-ci, il n'y a pas de nouveau matériel à part quelques lentilles de transition mises à jour. Que pensez-vous de cette absence de mise à jour matérielle significative ?
Tl;dr
- Meta a amélioré les capacités d’intelligence artificielle de ses lunettes intelligentes Ray-Ban.
- Ces améliorations incluent des rappels, des traductions en direct et une meilleure reconnaissance des environnements.
- Les lunettes peuvent également scanner les codes QR et composer un numéro de téléphone.
- Meta prévoit de rajouter des traductions en direct pour plusieurs langues.
Une intelligence artificielle améliorée pour les lunettes de Meta
La dernière mise à jour de Meta concernant ses lunettes intelligentes Ray-Ban est en train de faire parler d’elle. Leur assistant d’intelligence artificielle (IA), qui a toujours été l’atout majeur de la seconde génération de ces lunettes, a récemment connu une nette amélioration de ses capacités.
Des fonctionnalités accrues
Lors du lancement des lunettes l’automne dernier, l’assistant IA générateur était doté de capacités assez limitées. Cependant, l’ajout d’informations en temps réel et de capacités multimodales a ouvert un éventail de nouvelles possibilités pour cet accessoire. Aujourd’hui, Meta monte d’un cran en améliorant significativement les capacités IA de ses lunettes Ray-Ban.
Des rappels et des traductions en direct
Parmi les nouvelles fonctionnalités, on note l’ajout de rappels et de traductions en direct. Vous pourrez désormais regarder des objets dans votre environnement et demander à Meta de vous envoyer un rappel à ce sujet. Par exemple, « Salut Meta, rappelle-moi d’acheter ce livre lundi prochain ». Les lunettes pourront également scanner les codes QR et composer un numéro de téléphone inscrit devant vous.
Une meilleure interaction avec l’environnement
En outre, Meta a ajouté une prise en charge vidéo pour Meta AI afin que les lunettes soient mieux à même d’analyser votre environnement et de répondre à vos requêtes concernant ce qui vous entoure. Les améliorations sont également plus subtiles. Précédemment, pour obtenir une réponse de la part des lunettes basée sur ce que vous regardiez, vous deviez commencer une commande par « Salut Meta, regarde et dis-moi ». Avec la mise à jour, Meta AI pourra répondre à vos questions sur ce qui se trouve devant vous de manière plus naturelle.
Des traductions plus longues et en direct
Lors de mes premiers essais des capacités multimodales de Meta AI sur les lunettes l’année dernière, j’ai constaté que Meta AI était capable de traduire certains extraits de texte, mais avait du mal avec des phrases de plus de quelques mots. Désormais, Meta AI devrait être en mesure de traduire de plus longs passages de texte. De plus, l’entreprise prévoit d’ajouter des capacités de traduction en direct pour l’anglais, le français, l’italien et l’espagnol plus tard cette année, ce qui pourrait rendre les lunettes encore plus utiles comme accessoire de voyage.
Une meilleure compréhension de l’information en temps réel
Bien que je n’ai pas encore complètement testé les nouvelles capacités de Meta AI sur ses lunettes intelligentes, il semble déjà qu’elle ait une meilleure maîtrise de l’information en temps réel que ce que j’ai pu constater l’année dernière. Lors d’une démo avec Meta, j’ai demandé à Meta AI de me dire qui est le président de la Chambre des représentants – une question à laquelle il avait répondu à tort l’année dernière – et il a répondu correctement du premier coup.