Publié le 4 mai 2017, modifié le 30 novembre 2020.
Par La Rédaction

5000 questions à Google Home, Alexa, Siri et Cortana

Publié le 4 mai 2017, modifié le 30 novembre 2020.
Par La Rédaction

Sur les quelque 3 400 questions auxquelles Google Home a répondu, 89,5% étaient correctes, selon l'étude.

Un cabinet de consulting US a posé 5 000 questions à plusieurs appareils de reconnaissance vocale pour voir lequel était le plus précis et de facto plus intelligent.

Dans sa discussion des résultats, l’entreprise précise que le test n’était pas une comparaison de tout ce qu’il est possible de faire avec les capacités d’assistant virtuel. Il s’agissait plutôt de déterminer quel dispositif fournissait le plus souvent une réponse correcte à un large éventail de questions factuelles. La liste spécifique des questions n’a pas été fournie.

Àlire : Voice First : 4 facteurs influant sur la croissance du marché

[Quel assistant personnel est le plus drôle ? Tous les assistants personnels racontent des blagues en réponse à certaines questions. Siri est certainement le leader ici, mais il est intéressant que l’Assistant Google sur Google Home soit un peu plus drôle que la recherche Google. Par exemple, «ai-je l’air gras ?», La recherche Google dit simplement un ensemble de résultats de recherche Web, mais sur Google Home, la réponse est «Je vous aime comme vous l’êtes».]

Quel assistant personnel est le plus intelligent ?

Sur les quelque 3 400 questions auxquelles Google Home a répondu, 89,5% étaient correctes, selon l’étude. Par comparaison, Amazon Echo a obtenu juste environ 87 % des quelque 1 000 questions qu’il a pu répondre. Comme vous pouvez le voir, Google Home a fourni des réponses verbales à la plupart des questions, mais cela ne signifie pas qu’il a donné le plus de réponses, car les services téléphoniques (Google Search, Cortana, Siri) ont toute la possibilité de répondre à travers l’écran de votre smartphone seulement, et en fait chacun d’eux l’a fait plusieurs fois. Il est également intéressant de voir comment Cortana non-verbal est dans ce test particulier.

Voici un aperçu du nombre de questions que chacun a tenté de répondre avec quelque chose d’autre qu’un “Résultat de recherche régulier” :

Il s’avère qu’il existe de nombreuses façons différentes de ne pas être 100% correct ou complet:

– La requête peut avoir plusieurs réponses possibles.
– Au lieu d’ignorer une requête qu’il ne comprend pas, l’assistant personnel peut choisir de mapper la requête à quelque chose qu’il considère comme «proche» de ce que l’utilisateur a demandé.
– L’assistant a peut-être fourni une réponse partiellement correcte.
– L’assistant a peut-être répondu avec une blague.
– Ou, il se peut simplement que la réponse soit mauvaise. Souvent avec Siri un lien était envoyé vers un contenu approximatif.

Alexa et Siri sont tous les deux confrontés à la limitation de ne pas pouvoir exploiter pleinement le Web pour compléter leurs bases de connaissances. Il sera intéressant de voir comment ils abordent ce défi. Une zone majeure non couverte par ce test est la connectivité globale de chaque assistant personnel avec d’autres applications et services. C’est une partie incroyablement importante de la notation d’un assistant personnel aussi. Vous pouvez vous attendre à ce que les quatre entreprises appuient fortement pour se connecter à autant d’applications et de fournisseurs de services de qualité que possible, car cela aura une incidence majeure sur leur efficacité.

Nous ne pensons pas que la bataille des assistants intelligents sera gagnée ou perdue sur la base de la taille de l’index. Plutôt sur une série de considérations, y compris l’utilité générale, le coût et l’esthétique (conception et UX) seront des facteurs importants. Dans ces autres catégories, Amazon a plus de chance pour le combat, c’est le plus en avance à construire un écosystème avec les développeurs.

Lire aussi