La nouvelle génération de chatbots IA, dont ChatGPT, le nouveau Bing de Microsoft et Bard de Google, a suscité beaucoup d’attention. Et il est clair pour ceux qui y prêtent attention que l’offre de Google est actuellement en troisième position. La semaine dernière, Sundar Pichai, PDG de Google, en a parlé dans le podcast Hard Fork du New York Times.
Pichai a affirmé que Google était prudent dans son approche de la nouvelle technologie Bard en déclarant : « Nous savions que lorsque nous avons lancé Bard, nous voulions être prudents. C’est le début d’un voyage pour nous. Il y a un certain nombre de choses qu’il faut réussir lorsqu’on lance ces modèles. Obtenir ce cycle de retour d’information de la part des utilisateurs et être en mesure d’améliorer nos modèles, de construire une couche de confiance et de sécurité s’avère être une chose importante à faire ».
Le PDG a également déclaré que la réaction au manque apparent de sophistication de Bard était prévisible, car l’entreprise a délibérément publié un modèle de langage bas de gamme : « Nous avons dit que nous utilisions une version légère et efficace de LaMDA. D’une certaine manière, nous avons donc mis sur le marché l’un de nos plus petits modèles, celui qui alimente Bard. Et nous avons été prudents. Je ne suis donc pas surpris de cette réaction. Mais d’une certaine manière, j’ai l’impression que nous avons pris une Civic améliorée et que nous l’avons mise dans une course avec des voitures plus puissantes ».
La sécurité face à cette nouvelle technologie a été un thème commun tout au long de l’entretien de 48 minutes, l’auteur déclarant à un moment donné qu’il s’agissait de sa principale préoccupation, avant toute autre chose : « Le travail que nous faisons autour de la vie privée, de la sécurité, de l’IA responsable, je pense que c’est le plus important, s’il en est. C’est pourquoi notre engagement à cet égard sera inébranlable, afin que tout cela soit bien fait ».
Autrement dit, Google Bard est sur le point de s’améliorer considérablement dans un proche avenir. L’augmentation des capacités se fera par le biais d’un changement dans le modèle qui alimente l’IA. La situation est analogue à celle de OpenAI qui a lancé GPT-4 pour son programme ChatGPT. L’amélioration du modèle a instantanément entraîné une augmentation notable des capacités d’écriture, de codage et de raisonnement de l’IA.
Bard a ses problèmes
Comme beaucoup d’IA du LLM, Bard a son lot de problèmes. Le plus important est l’imprécision. Le modèle répond souvent à une question par des informations inexactes ou non pertinentes. Étant donné que des entreprises comme Google espèrent que l’IA LLM viendra compléter et éventuellement remplacer ses outils de recherche actuels, il s’agit là d’un problème majeur. La réputation d’inexactitude de Bard date d’avant son lancement.
Pendant le reste de l’entretien, Pichai a abordé d’autres questions et préoccupations concernant l’essor de l’IA, telles que la manière dont elle affectera les emplois, la vie privée en ligne, et même si la nouvelle technologie a le potentiel d’anéantir l’humanité. Sur cette dernière question, le PDG a reconnu qu’il s’agissait d’un « éventail de possibilités », mais il a comparé la question au changement climatique en déclarant : « l’une des choses qui me donnent de l’espoir à propos de l’IA, comme du changement climatique, c’est qu’elle affecte tout le monde. Il s’agit donc de deux questions qui présentent des caractéristiques analogues, en ce sens qu’il n’est pas possible d’assurer unilatéralement la sécurité de l’IA. Par définition, elle concerne tout le monde. C’est pourquoi je pense que la collectivité finira par s’attaquer à tout cela de manière responsable ».
Ce qu’il faut retenir de cette interview, c’est que Google sait que Bard n’est pas aussi avancé que le nouveau Bing et ChatGPT, et que c’est voulu. Le PDG insiste sur la sécurité et la responsabilité face à une technologie en pleine évolution. Bard s’améliorera avec le temps, mais Google s’engage à le faire d’une manière qui protège ses utilisateurs et l’avenir de la race humaine.