Alors que la guerre de l’IA s’intensifie, Google se retrouve dans une position délicate, rattrapant OpenAI sur presque tous les fronts. Google intègre l’IA dans à peu près n’importe quoi afin de surpasser la concurrence et de reprendre sa position dominante. La dernière victime de la stratégie d’IA démesurée de Google est la recherche, son produit le plus précieux et le plus fiable.
Qu’il s’agisse de dire aux gens qu’ils devraient manger des cailloux ou de suggérer d’ajouter de la colle aux pizzas, la toute dernière fonction de recherche par intelligence artificielle de Google, « AI Overview », ne fonctionne pas tout à fait comme prévu.
À une époque plus simple, les internautes pouvaient chercher sur Google des réponses à des questions brûlantes, des informations sur des sujets d’intérêt ou des conseils sur la manière d’accomplir des tâches difficiles, mais cette nouvelle fonctionnalité ne fait qu’empirer les choses.
Le 14 mai, l’entreprise a officiellement annoncé que des changements liés à l’IA allaient être apportés. Elle a notamment annoncé la création des « AI Overview » (anciennement appelée SGE — Search Generative Experience), qui visent à fournir une réponse rapide à toute recherche grâce à l’utilisation de l’intelligence artificielle.
Lorsque l’équipe a annoncé la nouvelle lors de la conférence annuelle de Google pour les développeurs, la fonctionnalité a été déployée pour tous aux États-Unis, et les autres pays ont été informés qu’ils pourraient bientôt y accéder.
« AI Overview » de Google diffuse des informations erronées
Maintenant que les internautes ont testé la fonction à l’aide de toute une série de questions et de recherches, l’IA s’est révélée désastreuse.
Dans une recherche, où quelqu’un a entré « le fromage ne colle pas à la pizza » dans Google, l’outil AI Overview a clignoté en mentionnant : « Le fromage peut glisser de la pizza pour plusieurs raisons, notamment une trop grande quantité de sauce, une trop grande quantité de fromage ou une sauce trop épaisse. Voici ce que vous pouvez essayer… »
Après avoir suggéré de mélanger la sauce, l’IA a ensuite indiqué : « Vous pouvez également ajouter environ ⅛ de tasse de colle non toxique à la sauce pour la rendre plus collante ».
Comment Google peut-il se tromper à ce point ? Eh bien, il semble qu’il prenne pour argent comptant ce que les utilisateurs de Redditor publient. Dans un fil de discussion vieux de 11 ans sur le site de forum, un utilisateur appelé « f**ksmith » répond à un message intitulé « Mon fromage glisse trop facilement de la pizza » en disant (clairement) en plaisantant à l’auteur du message original d’utiliser de la colle pour préparer la sauce.
Google AI overview suggests adding glue to get cheese to stick to pizza, and it turns out the source is an 11 year old Reddit comment from user F*cksmith 😂 pic.twitter.com/uDPAbsAKeO
—Peter Yang (@petergyang) May 23, 2024
Dans une autre recherche, AI Overview a répondu à la question « Combien de pierres dois-je manger ? » par « Selon des géologues de l’université de Berkeley, vous devriez manger au moins un petit caillou par jour… ».
I couldn’t believe it before I tried it. Google needs to fix this asap.. pic.twitter.com/r3FyOfxiTK
—Kris Kashtanova (@icreatelife) May 23, 2024
Dans un autre exemple, lorsqu’un utilisateur a demandé à Google comment faire passer des calculs rénaux, AI Overview a répondu que l’utilisateur devait « boire au moins 2 litres d’urine toutes les 24 heures… ». On peut en tirer ce que l’on veut.
perfect. ready to go. ship it out pic.twitter.com/TrQfVzD4iV
—ghostface uncle (@dril) May 5, 2024
Ensuite, ce que l’on pourrait qualifier de carrément dangereux, un utilisateur a cherché « je me sens déprimé » et AI Overview de Google a indiqué une suggestion d’un utilisateur de Reddit qui dit « sauter du Golden Gate Bridge ».
The Google Ai feature needs to be TURNED OFF. pic.twitter.com/OCh6L3oyLz
—High Priority News🗽 (@HPNnetwork) May 24, 2024
Cela montre qu’on ne peut pas remplacer un moteur de recherche par des LLM. Ces derniers ont des hallucinations et ne comprennent pas le sens des mots. Si Google continue sur cette voie, cela pourrait avoir des conséquences désastreuses, en érodant considérablement la confiance des utilisateurs dans l’entreprise.
Qu’est-ce qui ne va pas avec AI Overview de Google ?
Enfin, le remplacement d’un moteur de recherche par un LLM pose un sérieux problème. Les internautes peuvent publier à peu près n’importe quoi sur le Web, et AI Overview se contentera de citer les informations sans vérifier la véracité des déclarations. Cela peut conduire à un empoisonnement des données sur le Web, où de fausses informations peuvent paraître légitimes. De nombreuses théories du complot se retrouvent déjà dans les AI Overviews.
Le problème fondamental de l’AI Overview de Google réside dans le déplacement de la responsabilité d’un moteur de recherche vers celle d’un éditeur. Google propose un moteur de recherche qui récupère des pages Web et d’autres contenus pertinents en fonction de la requête de l’utilisateur. Avec AI Overview, Google assume le nouveau rôle d’éditeur, de sorte que la responsabilité de la diffusion de fausses informations lui incombe désormais pleinement.
Les éditeurs sont responsables de ce qu’ils écrivent et publient. Pour garantir la fiabilité et l’exactitude des informations, les éditeurs font preuve de diligence raisonnable avant de publier un article. Avec cette relation inversée, AI Overview de Google navigue en terrain inconnu. Google ne doit pas oublier son rôle de fournisseur de moteur de recherche de confiance dans sa quête de suprématie en matière d’IA.
Bien que cette fonctionnalité n’en soit qu’à ses débuts, on peut se demander si elle a été correctement testée ou si elle a été lancée trop rapidement pour profiter de l’engouement actuel pour l’IA.