La recherche visuelle de Lens changera nos usages
La recherche visuelle ne deviendra plus une option maintenant que Google a placé Lens dans la barre de recherche des appareils mobiles iOS à côté de l’icône du microphone de Google proposant la recherche vocale. Les utilisateurs US d’iPhone peuvent maintenant trouver l’icône dans leur barre de recherche. Auparavant, les utilisateurs iOS devaient accéder au moteur de recherche d’images via l’application Google Photos, qui devenait un peu lourde.
Cette fonction permet une recherche visuelle des produits, des bâtiments, des plantes et des animaux, des codes QR, des codes barres, des cartes de visite et presque tout texte comportant des textes en anglais, français, allemand, italien, coréen, portugais et espagnol.
Les acteurs
En matière de recherche visuelle, les leaders technologiques actuels sont Pinterest et Google parce qu’ils sont entrés très tôt dans l’espace et ont beaucoup investi dans le développement de leurs capacités. Google Goggles, qui avait été initialement développée pour les smartphones Android en 2009, avant d’être lancée pour iOS en 2010. Goggles a été conçue pour pouvoir rechercher des informations sur les images d’objets pris dans le monde réel elle était également capable d’effectuer des recherches de produits à l’aide du code à barres d’un article. Depuis quelques années sur le MWC on voyait des entreprises travailler sur le sujet Lens !
En Inde Google vient de lancer Style Search dans Google Lens qui est une toute nouvelle approche visuelle permettant de rechercher des produits tels que les vêtements, les meubles et la décoration intérieure en pointant simplement l’application Lens. Entre le fait qu’il y a plus de 40 millions d’Indiens se connectent chaque année et la recherche fait partie intégrante de leur parcours en ligne et les 58 millions de PME, dont 35% exercent le commerce de détail, le potentiel est énorme !
Microsoft a lancé la recherche visuelle des applications Bing pour iOS et Android aux États-Unis en juin dernier, et Amazon a récemment conclu un partenariat avec Snapchat pour créer un outil de recherche visuelle permettant de restituer les résultats de produits d’Amazon.
Il est à noter que les fabricants de chipsets comme Mediatek y travaillent depuis longtemps. La société prendra en charge ARCore et Google Lens sur sa puce Helio P90 à partir du quatrième trimestre 2018 pour les appareils conçus pour exécuter le dernier logiciel Android, Android Pie, et étendra la prise en charge d’ARCore et de Google Lens à d’autres chipsets de son portefeuille Helio en 2019.
Le monde physique
C’est un pas vers la réalité augmentée et les lunettes… Il y a de forte de chance que les constructeurs mettent cet usage intégré dans la caméra d’ici quelques mois (identique à la détection de QRcodes) ce qui laissera la place à des technologies différentes, des services et pourquoi pas un écosystème autour d’applications transparentes. On peut imaginer une marque comme Zara développer un service de Shopping (ce qui est déjà le cas avec une app d’AR) qui donne de l’information pour permettre l’achat off ou online d’une chemise vu sur une affiche, un magazine, sur une personne, etc… Dans un premier temps la recherche visuelle va s’imposer puis l’AR, mais c’est seulement quand les constructeurs auront obtenu un usage fluide à travers le smartphone avec des lunettes (y compris de vue), que le marché démarrera significativement !
La recherche sur les appareils mobiles se diversifiera. La recherche d’image et la possibilité de trouver un look qui plaise au consommateur pourraient devenir un élément permettant de qualifier un client potentiel ou un segment d’audience avant de diffuser une annonce. À terme, la technologie de l’image pourrait transformer les images de produits contenues dans des publicités en annonces commerciales, sans recourir à un bloc d’annonces physique. Cela pourrait également servir de tremplin pour identifier l’intention et l’intérêt d’un produit, d’un lieu ou d’un service avant qu’une publicité ne soit diffusée
You’ve always wanted to know what type of 🐶 that is. With Google Lens in the Google app on iOS, now you can → https://t.co/xGQysOoSug pic.twitter.com/JG4ydIo1h3
— Google (@Google) 10 décembre 2018
L’intelligence artificielle
La technologie appelée «vision par ordinateur», qui permet aux ordinateurs de lire et d’identifier des images visuelles va constituer une étape importante vers les systèmes d’intelligence artificielle généraux des ordinateurs (smartphone) qui apprennent par eux-mêmes, qui deviennent intuitifs, prennent des décisions fondées sur le raisonnement et interagissent avec les humains de façon beaucoup plus humaine. Bien que les systèmes de vision artificielle d’IA actuels soient de plus en plus puissants et performants, ils sont spécifiques à une tâche, ce qui signifie que leur capacité à identifier ce qu’ils voient est limitée par le nombre de formations et de programmations qu’ils ont effectuées.
Même les meilleurs systèmes de vision par ordinateur actuels ne peuvent pas créer une image complète d’un objet après en avoir vu seulement certaines parties et les systèmes peuvent être trompés en visualisant l’objet dans un cadre inconnu. Les ingénieurs cherchent à créer des systèmes informatiques dotés de ces capacités, tout comme les humains peuvent comprendre qu’ils regardent un chien, même si l’animal se cache derrière une chaise et que seules les pattes et la queue sont visibles. Bien entendu, les humains peuvent aussi facilement savoir où se trouvent la tête du chien et le reste de son corps, mais cette capacité échappe encore à la plupart des systèmes d’intelligence artificielle. Source