Bien avant que ChatGPT ne devienne une chose, avant que les recherches assistées par l’IA ne soient aussi populaires qu’aujourd’hui, Google avait sa propre interface de recherche par chat, Google Assistant. Amazon l’a fait aussi, et Microsoft aussi. Et pourtant, Google, et d’ailleurs aucune entreprise, n’a été capable de monétiser des assistants virtuels qui pourraient aider les gens à rechercher des choses en ligne, de manière intelligente.
Un nouvel article de Reuters souligne un autre problème financier lié à la création d’une session de chat pour chaque recherche : cela coûterait beaucoup plus cher à exploiter qu’un moteur de recherche classique.
Aujourd’hui, la recherche Google fonctionne en créant une base de données massive du Web. Lorsque vous recherchez quelque chose, les entrées de cet index sont analysées, classées et classées, et les entrées les plus pertinentes apparaissent dans les résultats de votre recherche. Lorsque vous effectuez une recherche sur Google, la page de résultats vous indique réellement le temps que cela prend, qui est généralement inférieur à une seconde.
Chaque fois que vous effectuez une recherche, un moteur de recherche de type ChatGPT mettrait en route un réseau neuronal massif calqué sur le cerveau humain, générerait un tas de texte et interrogerait probablement aussi cet index de recherche massif pour obtenir des informations réelles.
En raison de la nature de l’aller-retour de ChatGPT, il est fort probable que vous vous engagiez avec lui pendant bien plus longtemps qu’un fragment de seconde.
Recherches d’IA = Plus de calcul = Plus de coûts opérationnels
Toutes ces manipulations supplémentaires vont coûter beaucoup plus d’argent. Le président d’Alphabet, John Hennessy, et plusieurs experts affirment « qu’une interaction avec l’IA connue sous le nom de gros modèle linguistique coûte probablement 10 fois plus cher qu’une recherche de phrase normale », et que cela pourrait représenter « plusieurs milliards de dollars de coûts supplémentaires ».
On ne sait pas exactement quelle part des 60 milliards de dollars de revenus nets annuels de Google sera engloutie par un chatbot. Morgan Stanley estime à 6 milliards de dollars l’augmentation du coût annuel pour Google si une « IA de type ChatGPT traite la moitié des requêtes qu’elle reçoit avec des réponses de 50 mots ».
Dans son article initial sur son chatbot « Bard », Google a fait allusion à un problème de temps de serveur, en disant qu’il commencerait avec une « version légère » du modèle de langage de Google, et que « ce modèle beaucoup plus petit nécessite beaucoup moins de puissance de calcul, ce qui nous permet de passer à l’échelle à plus d’utilisateurs, permettant ainsi plus de retours ».
Google, se méfie clairement de sa taille et de son échelle. Google travaille à une échelle qui éclipse la plupart des entreprises et peut gérer n’importe quelle charge de calcul que vous lui lancez. La question qui se pose alors est de savoir ce que Google a envie de dépenser pour un tel projet.
Pourquoi Google hésite-t-il à dépenser un montant exorbitant pour les recherches d’IA ?
Les coûts de recherche posent clairement un plus gros problème à Google qu’à Microsoft. Si Microsoft est si pressé de bouleverser le marché des moteurs de recherche, c’est en partie parce que, selon la plupart des estimations de parts de marché, Bing ne représente qu’environ 3 % du marché mondial de la recherche, contre 93 % pour Google.
L’activité principale de Google est la recherche, ce dont Microsoft n’a pas à se soucier. En moyenne, Google doit traiter environ 8,5 milliards de recherches par jour. Si ne serait-ce que la moitié de ce chiffre devait passer à l’IA, les dépenses de Google par recherche pourraient rapidement s’accumuler.
Google cherche des moyens de réduire les dépenses, décrivant ce problème comme « un problème de deux ans au pire ». Google s’est attaqué à des problèmes analogues par le passé, notamment lorsqu’elle a acquis YouTube et a pu réduire suffisamment ses dépenses pour le transformer en un moteur rentable, et il continue de le faire aujourd’hui avec des inventions telles que le développement de ses propres puces de transcodage vidéo. Les unités de traitement tensoriel sont des processeurs informatiques spéciaux conçus pour l’apprentissage automatique.
Pourtant, après les récentes réductions de coûts de Google, il n’est pas optimal d’envisager que les coûts de son principal produit de consommation augmentent pendant « quelques années ».
On ne sait pas qui gagnera de l’argent avec les recherches d’IA, ni comment
On ne sait toujours pas combien d’argent les agrégateurs de recherche vont gagner grâce aux chatbots IA. Les assistants vocaux de Google et d’Amazon n’ont pas réussi à dégager de bénéfices, alors qu’ils ne sont qu’une autre variante des chatbots intelligents.
OpenAI, le développeur de ChatGPT, facture le mot produit, ce qui est incompatible avec les moteurs de recherche (il profite également d’une vague d’anticipation et de l’enthousiasme des investisseurs sur lesquels il peut compter pendant des années).
Selon un autre article de Reuters, Microsoft a déjà rencontré des annonceurs pour discuter de son projet « d’insérer des [publicités] dans les réponses produites par le chatbot Bing », mais on ignore dans quelle mesure cela serait gênant ou comment les consommateurs réagiraient si un chatbot passait brusquement à une pause publicitaire.