A l’occasion de sa conférence re:MARS qui se tient jusqu’au 7 juin 2019 à Las Vegas, Amazon a fait plusieurs annonces concernant Alexa et notamment une, hier, qui a retenu toute notre attention concernant les interactions avec notre assistante vocale favorite, et notamment une nouvelle approche basée sur de nouveaux modèles d’apprentissage profond, concept que nous vous avons expliqué il y a peu dans notre brève histoire de l’intelligence artificielle.
Le géant de Seattle a annoncé être parvenu à rendre les interactions avec Alexa plus naturelles en lui permettant de tenir des conversations plus fluides et abordant divers sujets. Ainsi, il sera bientôt possible de lui demander plusieurs choses sans pour autant prononcer à nouveau son prénom. Vous allez nous dire que c’est déjà possible avec l’écoute continue, mais il s’agit en fait d’une amélioration bien plus importante et profonde pour l’intelligence artificielle animant l’assistante vocale.
Les équipes d’Amazon ont en effet mis en place un tout nouveau système de dialogue, Alexa Conversations, capable de prédire les demandes à venir et de basculer d’une skill à l’autre de façon fluide, et permettant à Alexa de poser des questions à l’utilisateur en fonction des situations qu’elle rencontre.
« Nous avons amélioré nos capacités d’apprentissage automatique afin qu’Alexa puisse prédire le véritable objectif du client de la direction du dialogue et permettre de manière proactive le flux de conversation entre les compétences », a expliqué Rohit Prasad.
Une nouveauté présentée en direct sur un Echo Show 2 et qui n’a pas manqué de séduire l’auditoire présent lors de cette conférence, notamment les développeurs de skills qui pourront très prochainement utiliser ce nouvel outil de dialogue basé sur le machine learning (apprentissage machine) ainsi que le deep learning (apprentissage profond) et reposant sur un ensemble de modules d’intelligence artificielle travaillant ensemble pour générer des réponses aux questions et demandes des clients en une seule conversation.
Ces outils, déjà rendus disponibles en version preview, permettront aux développeurs de réduire d’environ un tiers le nombre de lignes de code nécessaires à une bonne compréhension. Le développeur devra simplement déclarer un ensemble d’actions et quelques exemples d’interactions, et n’aura plus besoin de penser aux différentes manières dont l’utilisateur interagira avec sa skill, ce que trop de développeurs ne prennent pas le temps de travailler suffisamment, rendant de fait les échanges parfois vraiment trop limités.
« Il est beaucoup plus facile de construire une expérience vocale complexe avec Alexa Conversations grâce à sa modélisation des dialogues basée sur l’apprentissage profond » Rohit Prasad
Selon Rohit Prasad, vice-président d’Alexa, « grâce à cette nouvelle approche, Alexa prédira l’objectif latent d’un client à partir du dialogue. […] C’est un grand bond en avant pour l’IA conversationnelle. Notre objectif est de transférer la charge cognitive du client à Alexa. » Un ambitieux programme!
Peu à peu, Alexa apprendra comment les utilisateurs interagissent avec le système et devrait voir sa compréhension largement améliorée. Une compréhension qu’Amazon affirme d’ailleurs avoir nettement améliorée en rendant récemment son assistante 20% plus précise en un an.
Lors d’une brève démonstration, Amazon a enfin montré comment ces évolutions pourront permettre d’organiser une soirée cinéma. Dans l’exemple, l’utilisateur a demandé «Alexa, quels films sont à l’affiche ? », Alexa proposant une sélection de films, puis de visionner la bande d’annonce, avant d’acheter des billets, de réserver un restaurant à proximité du cinéma, et de prévoir le retour à domicile en commandant un VTC Uber. Pas mal, non? Malheureusement, ces nouvelles capacités devraient pour l’instant se cantonner à des exemples de ce type, mais il s’agit sans aucun doute d’une nouvelle avancée majeure pour Alexa.
Répondre