Le 27 avril dernier, Andy Jassy révélait que ses équipes travaillaient déjà sur un nouveau modèle d’IA pour Alexa. Aujourd’hui, c’est du côté de Google Assistant qu’il est question d’un grand modèle de langage (LLM) façon ChatGPT. La firme de Mountain View aurait en effet « déjà commencé à travailler là-dessus » et explorerait la possibilité d’intégrer Bard à Google Assistant, ou un modèle génératif équivalent.
Un nouveau modèle d’IA pour Google Assistant
Depuis l’ouverture de ChatGPT au grand public, nombreux sont les utilisateurs d’assistants vocaux à réclamer des grands modèles de langage (LLM) sur leurs enceintes connectées. Si Andy Jassy a rassuré ses actionnaires en expliquant qu’Amazon travaillait d’ores et déjà sur le sujet, Google aussi serait en train de réorganiser ses effectifs dédiés à Google Assistant afin de répondre rapidement à la demande des utilisateurs. Selon Axios, qui s’appuie sur un email interne, le géant du web aurait en effet licencié des « dizaines d’emplois » sur les milliers qui constituent les équipes travaillant sur l’Assistant.
Peeysh Ranjan, vice-président de Google Assistant, et Duke Dukellis, directeur produit, y expliquent qu’ils ont « entendu le fort désir des gens pour une technologie d’assistance et de conversation qui puisse améliorer leur vie » et qu’ils apportent « quelques changements à l’organisation » afin de répondre au plus vite à la demande.
Bref, l’entreprise américaine ne dit pas qu’il s’agit d’intégrer Bard, ni quels types de fonctionnalités cela pourrait apporter, mais confirme son attachement et renouvelle sa confiance à Google Assistant. Reste à savoir ce qu’un LLM pourrait apporter à Google Home…
L’intérêt des LLM pour la maison connectée
Bien que l’email de Google ne nous fournisse ni de délai ni d’informations concrètes sur le développement de cet Assistant dopé à l’intelligence artificielle générative, nous pouvons essayer d’imaginer les apports d’une telle technologie en domotique. Les LLM peuvent-ils vraiment apporter plus d’intelligence à nos maisons connectées ?
Oui et non, tout dépend en fait de ce que l’on qualifie d’intelligence. Contrairement à ce que l’on entend trop souvent, les IA génératives ne sont pas intelligentes. Si vous en avez l’impression en utilisant ChatGPT, c’est parce qu’il fait parfaitement illusion, mais un modèle génératif de ce type se contente en réalité de produire du texte en établissant statistiquement la séquence de mots la plus probable. ChatGPT ne comprend pas vos requêtes, il détermine simplement la réponse la plus plausible à votre question. S’il fonctionne aussi bien et semble avoir réponse à tout, c’est parce que son modèle GPT-3.5 met en œuvre 175 milliards de paramètres, ce qui lui permet de répondre avec un taux d’erreur extrêmement faible, mais on ne peut pas dire qu’il soit intelligent pour autant. Pas plus que Google Assistant ou Alexa en tout cas.
Cela dit, les LLM sont plus efficaces que les modèles actuellement utilisés par nos assistants vocaux sur certaines tâches. Ils peuvent par exemple améliorer les conversations et générer des réponses plus complètes, mieux contextualisées, et plus personnalisées.
Il peuvent aussi contribuer à améliorer l’intelligence de nos maisons connectées en nous aidant à automatiser certaines tâches domestiques par l’analyse de nos préférences et de nos habitudes. Ils sont également capables d’anticiper nos besoins en se basant sur l’historique de nos interactions avec eux, facilitant ainsi la gestion des appareils domotiques et l’optimisation de notre consommation d’énergie. Ils peuvent aussi analyser et détecter des schémas de comportement inhabituels afin de nous alerter en cas de détection de problèmes de sécurité, ou encore anticiper des pannes potentielles en surveillant les performances de nos appareils domestiques. On parle ici d’intelligence ambiante.
Amazon, qui travaille sur le sujet depuis des années, a déjà commencé à intégrer cette intelligence ambiante à Alexa dans sa version US et prévoit de le faire pour son robot Astro. Outre de nouvelles capacités conversationnelles, le LLM en cours de développement devrait permettre à Amazon Astro de faire preuve d’une intelligence environnementale et de capacités de mémorisation.
Autrement dit, le robot domestique pourra analyser ce qu’il voit, converser à ce sujet avec ses utilisateurs et même prendre seul les mesures adéquates en fonction de la situation. Amazon explique que, grâce aux grands modèles de langages (LLM), nos assistants vocaux et nos robots domestiques pourront prochainement raisonner de manière plus complexe et donc apporter de l’intelligence à nos maisons connectées. Et Google lui emboite logiquement le pas.