Meta déploie de nouvelles fonctions IA et Conversation Focus sur ses lunettes connectées, incluant Spotify

Image d'illustration. Meta Lunette ARMeta
Meta enrichit les fonctionnalités de ses lunettes connectées en déployant Conversation Focus, ainsi que de nouvelles options Spotify intégrant l’intelligence artificielle. Ces nouveautés visent à améliorer l’expérience utilisateur grâce à des interactions plus intuitives et personnalisées.
Tl;dr
- Nouvelle fonction Conversation Focus sur lunettes connectées.
- Commandes vocales simplifiées et intégration Spotify évoluée.
- Mise à jour déployée progressivement sur plusieurs modèles.
Des mises à jour majeures pour les lunettes connectées Meta
À l’heure où la concurrence s’intensifie sur le marché des lunettes intelligentes, Meta choisit d’accélérer l’innovation avec une nouvelle série de fonctionnalités déployées sur ses modèles phares. Après une première présentation remarquée lors du dernier évènement Meta Connect, la société s’apprête à enrichir sa gamme d’accessoires connectés de plusieurs options qui promettent de faciliter l’usage au quotidien.
Conversation Focus : mieux entendre dans le tumulte
Parmi les ajouts notables, le mode Conversation Focus suscite un certain intérêt. Son principe ? « Vous entendrez la voix amplifiée légèrement plus claire, ce qui vous aidera à distinguer la conversation du bruit ambiant », explique Meta. Cette fonctionnalité cible précisément ceux qui cherchent à suivre une discussion dans des environnements bruyants. Pour l’activer, rien de plus simple : il suffit de prononcer une commande vocale – par exemple, « hey Meta, démarre Conversation Focus » – ou d’utiliser un raccourci dédié via un appui prolongé.
L’intégration Spotify s’étoffe, les commandes vocales se simplifient
Dans le sillage de cette mise à jour, l’intégration entre les lunettes et Spotify se fait également plus intelligente grâce à une nouvelle capacité d’IA multimodale. Les utilisateurs peuvent désormais demander à leurs lunettes de sélectionner une playlist adaptée à ce qu’ils observent, simplement en disant « hey Meta, joue une chanson pour accompagner cette vue ». La promesse : générer une expérience musicale personnalisée, influencée par l’environnement visuel immédiat – même si certains cas resteront peut-être énigmatiques quant au choix de la musique.
Par ailleurs, les toutes dernières lunettes Oakley Meta Vanguard, elles aussi concernées par cette vague d’améliorations, bénéficient d’un accès simplifié aux fonctions photo et vidéo. Plus besoin du traditionnel « hey Meta » : il suffit désormais d’un mot-clé comme « photo » ou « vidéo ». Une facilité pensée notamment pour les sportifs cherchant à économiser leur souffle lors de leurs activités.
Un déploiement progressif sur toute la gamme
Concrètement, ces évolutions logicielles touchent déjà les modèles Ray-Ban Gen 1 et Gen 2, ainsi que les montures Oakley Meta HSTN. Toutefois, seules les personnes inscrites au programme d’accès anticipé recevront la mise à jour dans un premier temps ; elle sera ensuite diffusée graduellement auprès du grand public. La liste complète des nouveautés comprend notamment :
- Amplification intelligente des voix
- Musiques contextuelles via Spotify
- Simplification extrême des commandes vocales pour photos et vidéos
Le secteur des accessoires connectés observe avec attention ces initiatives qui redessinent peu à peu notre rapport au son et à l’image au quotidien.