Google Assistant bientôt boosté par une IA façon ChatGPT ?

Le 27 avril dernier, Andy Jassy révélait que ses équipes travaillaient déjà sur un nouveau modèle d’IA pour Alexa. Aujourd’hui, c’est du côté de Google Assistant qu’il est question d’un grand modèle de langage (LLM) façon ChatGPT. La firme de Mountain View aurait en effet « déjà commencé à travailler là-dessus » et explorerait la possibilité d’intégrer Bard à Google Assistant, ou un modèle génératif équivalent.

Un nouveau modèle d’IA pour Google Assistant

Depuis l’ouverture de ChatGPT au grand public, nombreux sont les utilisateurs d’assistants vocaux à réclamer des grands modèles de langage (LLM) sur leurs enceintes connectées. Si Andy Jassy a rassuré ses actionnaires en expliquant qu’Amazon travaillait d’ores et déjà sur le sujet, Google aussi serait en train de réorganiser ses effectifs dédiés à Google Assistant afin de répondre rapidement à la demande des utilisateurs. Selon Axios, qui s’appuie sur un email interne, le géant du web aurait en effet licencié des « dizaines d’emplois » sur les milliers qui constituent les équipes travaillant sur l’Assistant.

Peeysh Ranjan, vice-président de Google Assistant, et Duke Dukellis, directeur produit, y expliquent qu’ils ont « entendu le fort désir des gens pour une technologie d’assistance et de conversation qui puisse améliorer leur vie » et qu’ils apportent « quelques changements à l’organisation » afin de répondre au plus vite à la demande.

En tant qu’équipe, nous devons nous concentrer sur la fourniture d’expériences produit critiques de haute qualité pour nos utilisateurs. Nous avons également vu le profond potentiel de l’IA générative pour transformer la vie des gens et voyons une énorme opportunité d’explorer à quoi ressemblerait un assistant suralimenté par la dernière technologie LLM. (Une partie de l’équipe a déjà commencé à travailler là-dessus, en commençant par le mobile.)Peeyush Ranjan & Duke Dukellis - Google

Bref, l’entreprise américaine ne dit pas qu’il s’agit d’intégrer Bard, ni quels types de fonctionnalités cela pourrait apporter, mais confirme son attachement et renouvelle sa confiance à Google Assistant. Reste à savoir ce qu’un LLM pourrait apporter à Google Home

Nous restons profondément attachés à Assistant et nous sommes optimistes quant à son brillant avenir.Peeyush Ranjan & Duke Dukellis - Google

L’intérêt des LLM pour la maison connectée

Bien que l’email de Google ne nous fournisse ni de délai ni d’informations concrètes sur le développement de cet Assistant dopé à l’intelligence artificielle générative, nous pouvons essayer d’imaginer les apports d’une telle technologie en domotique. Les LLM peuvent-ils vraiment apporter plus d’intelligence à nos maisons connectées ?

Oui et non, tout dépend en fait de ce que l’on qualifie d’intelligence. Contrairement à ce que l’on entend trop souvent, les IA génératives ne sont pas intelligentes. Si vous en avez l’impression en utilisant ChatGPT, c’est parce qu’il fait parfaitement illusion, mais un modèle génératif de ce type se contente en réalité de produire du texte en établissant statistiquement la séquence de mots la plus probable. ChatGPT ne comprend pas vos requêtes, il détermine simplement la réponse la plus plausible à votre question. S’il fonctionne aussi bien et semble avoir réponse à tout, c’est parce que son modèle GPT-3.5 met en œuvre 175 milliards de paramètres, ce qui lui permet de répondre avec un taux d’erreur extrêmement faible, mais on ne peut pas dire qu’il soit intelligent pour autant. Pas plus que Google Assistant ou Alexa en tout cas.

À LIRE :
Comment connecter Alexa à ChatGPT

Cela dit, les LLM sont plus efficaces que les modèles actuellement utilisés par nos assistants vocaux sur certaines tâches. Ils peuvent par exemple améliorer les conversations et générer des réponses plus complètes, mieux contextualisées, et plus personnalisées.

Il peuvent aussi contribuer à améliorer l’intelligence de nos maisons connectées en nous aidant à automatiser certaines tâches domestiques par l’analyse de nos préférences et de nos habitudes. Ils sont également capables d’anticiper nos besoins en se basant sur l’historique de nos interactions avec eux, facilitant ainsi la gestion des appareils domotiques et l’optimisation de notre consommation d’énergie. Ils peuvent aussi analyser et détecter des schémas de comportement inhabituels afin de nous alerter en cas de détection de problèmes de sécurité, ou encore anticiper des pannes potentielles en surveillant les performances de nos appareils domestiques. On parle ici d’intelligence ambiante.

Amazon, qui travaille sur le sujet depuis des années, a déjà commencé à intégrer cette intelligence ambiante à Alexa dans sa version US et prévoit de le faire pour son robot Astro. Outre de nouvelles capacités conversationnelles, le LLM en cours de développement devrait permettre à Amazon Astro de faire preuve d’une intelligence environnementale et de capacités de mémorisation.

Autrement dit, le robot domestique pourra analyser ce qu’il voit, converser à ce sujet avec ses utilisateurs et même prendre seul les mesures adéquates en fonction de la situation. Amazon explique que, grâce aux grands modèles de langages (LLM), nos assistants vocaux et nos robots domestiques pourront prochainement raisonner de manière plus complexe et donc apporter de l’intelligence à nos maisons connectées. Et Google lui emboite logiquement le pas.

À LIRE :
Amazon Astro sera bientôt plus intelligent que ChatGPT

 

Fasciné par Alexa depuis le jour où je l'ai reçue en bêta test, je me suis peu à peu passionné pour le sujet, avant de me décider à aller plus loin en créant un site avec Jean-Christophe. Une activité qui me permet d'étancher ma soif de nouvelles technologies et de partager mes découvertes sur la plus sympathique des communautés : Les Alexiens.