Disruptif

L’arbitrage cognitif utile pour le futur des assistants vocaux

Par le

L’un des risques des assistants vocaux (AV) sur smartphone où ailleurs c’est que les assistants entraînent une expérience utilisateur fragmentée. Certains sont disponibles uniquement dans certains endroits, tels que la voiture ou la maison. Certaines ne fournissent que des compétences spécifiques, telles que la réservation de vols ou la commande de pizzas. C’est précisément cette diversité qui peut devenir un inconvénient: si les services et applications préférés sont contrôlés par les AV, les utilisateurs doivent naviguer à travers ce système fragmenté, basculant entre les AV, essayant de se rappeler ce que chacun peut faire.

Les tendances du marché montrent que les AV vont contrôler de plus en plus d’appareils intelligents, comme les thermostats, les réfrigérateurs, les machines à laver… en bref, ils seront intégré à la maison intelligente. En plus des assistants vocaux polyvalents lancés par de grandes entreprises technologiques, des assistants (souvent appelés bots) qui fournissent des compétences spécifiques (telles que la réservation de vols) sont disponibles et deviendront de plus en plus répandus.

L’annonce de Nuance est intéressante avec son partenariat est Affectiva autour de l’arbitrage cognitif qui est une technologie d’intelligence artificielle (IA) qui guide chaque demande d’utilisateur à l’AV qui convient le mieux à son traitement. La technologie combine à la fois cognitive et éléments conversationnels. L’IA conversationnelle facilite une interaction naturelle et fluide avec l’utilisateur. Ainsi, le « Cognitive Arbitrator » émerge, une sorte de « Super AV » qui interagit avec l’utilisateur et assure le traitement de chaque demande de l’utilisateur.

Dragon Drive de Nuance, alimente plus de 200 millions de voitures actuellement sur la route, et couvre plus de 40 langues afin de fournir des expériences personnalisées, intégralement adaptés à la marque pour Audi, BMW, Daimler, Fiat, Ford, GM, Hyundai, SAIC, Toyota etc. Alimenté par l’IA conversationnelle, Dragon Drive permet à l’assistant embarqué d’interagir avec les passagers, en se basant sur des modalités verbales et non-verbales incluant les gestes, le toucher, la détection du regard, la reconnaissance vocale alimentée par la compréhension du langage naturel (NLU), et dès à présent, grâce à son travail aux côtés d’Affectiva, la détection émotionnelle et cognitive.

[Cognitif signifie que le système peut se comporter de manière intelligente en apprenant les préférences des utilisateurs individuels et des utilisateurs. Avec des capacités de services tiers, puis utiliser ces connaissances pour prendre des décisions judicieuses qui correspondent aux besoins de l’utilisateur.- L’arbitrage signifie que le système détermine où et comment répondre aux demandes des utilisateurs.]

Par exemple dans l’automobile qui s’est traditionnellement concentrée sur ce qui se passe à l’extérieur du véhicule, les équipementiers et les fournisseurs de premier niveau commencent à tourner les caméras et les capteurs vers l’intérieur. Mesurer en temps réel, les états émotionnels et cognitifs complexes et nuancés du visage et de la voix pour comprendre les émotions du conducteur et des occupants, les états cognitifs et les réactions à l’expérience de conduite.

Invocation explicite
Au début de la prolifération des assistants vocaux, les utilisateurs déclenchent généralement un assistant spécifique sur leurs appareils avec un déclencheur (commutateur de conversation) ou par un nom. Naturellement, l’arbitrage cognitif soutient de telles demandes. Les utilisateurs s’attendent à continuer à utiliser ce mode d’interaction pour la cohérence et aussi quand ils veulent diriger explicitement l’interaction vers un service spécifique.

Invocation implicite
Dans un environnement d’assistants multiples, il peut cependant être préférable pour l’utilisateur de ne pas penser à un assistant pour appeler pour une demande donnée. Le système peut comprendre les préférences et l’environnement de l’utilisateur pour AV ou le bot approprié pour une commande et un contexte donnés.

L’Empathie jouera aussi un rôle clé dans les relations entre les personnes et elle est essentielle à la réussite de l’interaction homme-machine. Créé par l’artiste Takayudi Todo, ce #robot est capable de faire un contact visuel, de reconnaître les expressions faciales des personnes et de leur restituer cette même expression. (Vous imaginer un tableau de bord qui vous fait un clin d’oeil 🙂 Les cas d’utilisation sont nombreux entre soins, social, humanitaire, santé, service client et de nombreux autres domaines