Publié le 7 juin 2019, modifié le 9 juin 2019.
Par La Rédaction

re:MARS 19 : conférence sur l’intelligence artificielle d’Amazon

Publié le 7 juin 2019, modifié le 9 juin 2019.
Par La Rédaction
re:Mars

re:Mars

Cette conférence re:MARS a lieu au même moment que la WWDC, elle est moins médiatisé, mais tout aussi importante ! Les sujets tournent autour de l’intelligence artificielle pour l’apprentissage automatique, l’automatisation, la robotique et l’espace !

La keynotes Dr. Werner Vogels, CTO d’Amazon a rappelé que Amazon fait du machine learning depuis 25 ans. Amazon a été le pionnier du cloud computing. Nous avons lancé nos premiers services en 2006. Nous avons conçu ces technologies pour nous-mêmes. AWS (85% de l’informatique dans le cloud se produit sur AWS) propose désormais 165 services, que vous souhaitiez effectuer des analyses, avoir des postes de travail distants, des services mobiles, des développements, des modèles ML, etc… Nous prenons l’apprentissage machine des mains des scientifiques et nous la mettons entre les mains des développeurs. Nous démocratisons l’apprentissage automatique !

Voice

Vous avez peut-être l’habitude de demander à Alexa de jouer de la musique, de vous indiquer le temps qu’il fait ou un nombre quelconque de demandes simples. Mais que se passe-t-il si vous demander à l’assistant vocal d’Amazon d’acheter des billets de cinéma et si vous souhaitez également une réservation de restaurant ?

Rohit Prasad, vice-président et responsable scientifique d’ Alexa, a dévoilé mercredi à la conférence sur l’intelligence artificielle MARS d’ Amazon à Las Vegas. Il prévoit de publier cette fonctionnalité dans les mois à venir. Amazon collabore avec un certain nombre de sociétés, dont Atom Tickets, Eats (Uber) et le service de réservation de restaurants OpenTable. Amazon souhaite que les utilisateurs interagissent avec Alexa de manière de plus en plus naturelle. Cela inclut de lui parler comme d’habitude, de passer facilement d’un sujet à un autre et d’utiliser l’assistant pour prendre des décisions sans de nombreuses interactions.

Alexa compte plus de 90 000 applications vocales, appelées “compétences” par Amazon, qui sont généralement utilisées une à la fois. Pourtant, une démonstration enregistrée sur vidéo a montré comment Alexa pourrait bientôt organiser une soirée (cinéma, restaurant, transport) pour vous ! Aujourd’hui, vous devrez parler à Alexa 40 fois pour mener à bien ce type d’interaction complexe de réserver plusieurs activités. Mais la fonctionnalité qui a été démontrée à la conférence n’a nécessité que 13 interactions, utilisateurs !!

Alexa est déjà quelque peu proactive avec des fonctionnalités telles que Alexa Guard , qui permet aux appareils Amazon Echo d’écouter les sons suspects tels que le bris de verre. Et vous pouvez dire des choses comme “Alexa, allume les lumières et joue à Rihanna” pour que l’assistant fasse deux choses à la fois. Mais il est beaucoup plus délicat de créer les types de scénarios dîner-et-film (plus un trajet Uber) envisagés par Amazon.

Réaliser ce type d’interaction complexe nécessite beaucoup d’efforts en matière d’intelligence artificielle – Alexa doit non seulement comprendre et répondre aux requêtes humaines, mais aussi formuler des suggestions intelligentes qui pourraient enrichir la conversation. S’exprimant sur scène lors de la conférence, Prasad a déclaré que cela fonctionnait à l’aide d’un prédicteur d’action inter-compétences, essentiellement un logiciel capable de répondre à des commandes telles que “obtenez-moi des billets de cinéma” en obtenant les billets de cinéma et en étant proactif en acquérant d’autres compétences telles que la réservation, d’une table dans un restaurant.

Emotion

Il y a eu une conférence sur la façon dont l’apprentissage automatique peut détecter les émotions dans la voix d’un orateur ! Bien que les émotions humaines soient compliquées, elles peuvent être représentées sous forme de vecteurs de caractéristiques en les cartographiant sur un axe tridimensionnel. Un vecteur de caractéristiques est une représentation numérique des caractéristiques d’un objet. Cela permet à un algorithme de mesurer les propriétés d’un objet. Pour détecter les émotions, les scientifiques de l’apprentissage automatique Alexa ont cartographié les énoncés selon trois axes : la valence (négative – positive), l’activation (l’intensité de l’émotion de bas en haut) et la dominance (une mesure de la soumission). Par exemple, la colère serait négative sur l’échelle de valence, positive sur l’échelle d’activation et positive sur l’échelle de dominance.

Retail

Amazon a annoncé une fonctionnalité pour le retail ! StyleSnap, une fonctionnalité alimentée par l’IA, qui vous aide à faire des achats – tout ce que vous avez à faire est de prendre une photo ou une capture d’écran du look que vous aimez.

Pour commencer, il vous suffit de cliquer sur l’icône de l’appareil photo dans le coin supérieur droit de l’application Amazon, puis de sélectionner l’option «StyleSnap». Il vous suffit ensuite de télécharger une photo ou une capture d’écran du look que vous aimez. StyleSnap vous présentera des recommandations pour des articles similaires sur Amazon qui correspondent au look de la photo. Dans ses recommandations, StyleSnap prend en compte divers facteurs tels que la marque, la fourchette de prix et les avis des clients.

StyleSnap utilise la vision par ordinateur et l’apprentissage en profondeur pour identifier les vêtements sur une photo, quel que soit le cadre. La technologie d’apprentissage en profondeur permet également de classer les vêtements de l’image dans des catégories telles que «robes ajustées et style» ou «chemises en flanelle.

De nombreuses startups proposent des services similaires, y compris certains géant. Il peut être facile pour l’AI de reconnaître les principaux articles vestimentaires, tels que les jupes crayon ou les chemises en flanelle, mais cela n’aide pas vraiment les consommateurs qui peuvent généralement les identifier eux-mêmes. Amazon croit que son expérience en intelligence artificielle peut lui donner un avantage concurrentiel.

Drones Prime Air

Les drones font partie des efforts incessants d’Amazon pour réduire les délais de livraison des colis pour ses clients, alors qu’il propose une expédition d’un jour à ses membres Prime en Amérique du Nord.

La société construit de nouveaux drones entièrement électriques qui devraient avoir une autonomie pouvant atteindre 24 kilomètres et être capables de livrer des colis de moins de 2,2 kg à leurs clients en moins de 30 minutes. Si tout se passe bien, Amazon devrait commencer à livrer ses clients par drones à ses clients d’ici quelques mois. Les nouveaux drones fabriqués par la société présenteront un design hybride. Ils seront capables de décoller et d’atterrir verticalement, à la manière d’un hélicoptère, il seront aérodynamiques à la manière d’un avion. Les drones pourront également basculer entre le mode vertical et le mode avion, puis revenir en mode vertical si nécessaire.

Boston Dynamics

Son fondateur a rappelé qu’il existe une compréhension traditionnelle du fonctionnement des robots. Il existe un ordinateur et un logiciel qui écoutent les capteurs du robot et lui disent quoi faire. Mais ce n’est que la moitié de l’histoire. Et l’autre moitié est qu’il y a un monde physique, qui dit aussi au robot ce qu’il doit faire, la gravité est présente, la friction retarde ses mouvements, l’énergie stockée donne le mouvement du robot.

Il y a trois robots à Boston Dynamics.
– Handle, qui est un robot spécialement conçu à cet effet, est vraiment conçu pour effectuer un ensemble de tâches simples.
– Le deuxième robot est Spot, qui est un robot à usage général. Il a été conçu comme une plate-forme de mobilité pouvant être personnalisée pour une grande variété d’applications.
– Et Atlas, leur robot de recherche et développement. Atlas ressemble à une Lamborghini ou à une Maserati des robots : très cher, très difficile, il a besoin de toute une équipe pour continuer à travailler, mais offre les plus hauts niveaux de performance. Les gens ont une grande capacité à stabiliser leurs mains lorsque leur corps bouge. Et cela signifie que vous pouvez obtenir une manipulation mobile très efficace. Et c’est ce qu’ils ont cherché à imiter avec Spot.

Walt Disney

Chez Disney, il ne fabrique pas de robots. Mais ils sont en train de créer des personnages. Le défi à relever consiste donc à capturer les instants d’un interprète pour vous faire réfléchir, que l’animation, c’est une personne.Beaucoup de maths sont nécessaires pour construire des personnages animatronique !

Zoox

Zoox développe aujourd’hui l’avenir de la mobilité autonome.

Le pdg Aicha Evans a dit : “nous passons 400 milliards d’heures à conduire par an. Nous n’utilisons que 4% de ce temps. Les voitures sont en quête de stationnement. 1/4 de la pollution de l’air est causée par les transports. Les accidents de voiture prennent la vie à 1,4 million de personnes chaque année. Plus de 90% de ces accidents sont causés par une erreur humaine.” Si Les bases de l’intelligence artificielle sont la détection, la planification et l’action alors un véhicule peut calculer son chemin préféré et prédire le comportement d’autres personnes, par exemple, le droit de passage de plusieurs personnes à un arrêt à 4 sens, les piétons qui peuvent changer d’avis, une voiture à double stationnement. Zlle peut alors ajuster son chemin en temps réel.”

L’homme ne conduit jamais, il donne sa permission à la voiture autonome . Chaque capteur du véhicule peut voir à 270 degrés et elles a plusieurs vues. Si un capteur tombe en panne, il y a toujours une vue à 360 degrés. C’est essentiel pour un véhicule conçu pour l’autonomie. “Au lieu de fabriquer des millions de voitures et de servir des millions de personnes, des milliers de voitures peuvent servir des millions de personnes.”

Lire aussi
Tech

L’assistant intelligent de Meta

Comme toutes les grandes entreprises technologiques, Meta convoite également son propre assistant vocal. L'assistant peut effectuer diverses...