Google Assistant pourrait bientôt être doté de capacités avancées basées sur l’IA, à l’instar de chatbots tels que Bard et ChatGPT.
Dans un e-mail consulté par Axios, un cadre supérieur de Google a déclaré aux employés que l’entreprise voyait « une énorme opportunité d’explorer ce à quoi ressemblerait un surpuissant Assistant, alimenté par la dernière technologie LLM ». L’entreprise n’est pas entrée dans les détails de ce à quoi pourraient ressembler ces capacités « suralimentées », mais un rapide coup d’œil à l’ensemble des fonctionnalités de Bard donne une bonne idée de ce à quoi on peut raisonnablement s’attendre.
Bard s’appuie sur le modèle linguistique Pathways Language Model 2 (PaLM 2) et sur la technologie LaMDA (Language Model for Dialogue Applications) de Google. Outre sa capacité à répondre à des questions basées sur des informations extraites du Web, Bard a récemment acquis la capacité d’analyser des images en utilisant la même technologie que celle de Google Lens. Il peut également extraire des citations et sera bientôt intégré à Adobe Express grâce à l’IA générative Firefly.
Mais ces capacités n’ont pas grand-chose à voir avec Google Assistant, qui peut au mieux obtenir des résultats de recherche sur le Web ou effectuer des tâches liées à une application sur un appareil, comme régler des alarmes ou jouer de la musique. Bard, quant à lui, pourrait être le chatbot d’IA le plus intelligent qui soit, mais il ne peut pas vraiment effectuer de tâches significatives sur votre téléphone, comme jouer de la musique ou régler une alarme — mais dans un avatar intégré, il peut améliorer considérablement les capacités de Google Assistant.
Il est intéressant de noter que Google a déjà donné un avant-goût de ce qui nous attend.
Un grand pas en avant pour les assistants numériques
En mai 2023, l’équipe IA de Google a publié un rapport intitulé « Enabling conversational interaction on mobile with LLMs » (Permettre l’interaction conversationnelle sur mobile avec les modèles de langage), dans lequel elle a testé des prompts issus de modèles de langage de grande taille par rapport à l’interface utilisateur d’un smartphone. Ce rapport traite de l’intégration des grands modèles de langage dans les interfaces utilisateur graphiques (IUG), c’est-à-dire les applications et les logiciels qui s’exécutent sur l’écran du smartphone. Il aborde de manière générale quatre domaines d’application : résumer le contenu à l’écran, répondre à des questions en fonction du contenu affiché et, surtout, attribuer des fonctions d’interface utilisateur graphique à des prompts linguistiques.
Mais le domaine d’application le plus prometteur est la « correspondance entre les instructions et les actions de l’interface utilisateur ». Il s’agit essentiellement de contrôler votre smartphone à l’aide d’invites (vocales et textuelles). Il est possible de demander à l’assistant virtuel d’ouvrir une application, de modifier les paramètres du téléphone, comme le mode de réseau cellulaire, et bien d’autres choses encore, avec des capacités de conversation améliorées. On ne sait pas exactement quand Google Assistant suralimenté arrivera, mais il s’agirait d’un véritable bond en avant dans ses capacités. Il est intéressant de noter qu’Apple serait également en train d’expérimenter des outils d’IA générative — qui auraient été baptisés AppleGPT en interne — afin d’améliorer Siri.