Il existe de nombreuses façons de lancer une recherche sur Google, qu’il s’agisse d’une simple question textuelle ou d’une recherche d’image inversée. Google propose désormais une autre méthode, appelée Entourer pour chercher, qui sera disponible sur certains smartphones Android.
Il est difficile d’imaginer une fonction plus explicite que Entourer pour chercher. Et, elle fait exactement ce pour quoi elle a été nommée. Vous encerclez quelque chose sur l’écran de votre téléphone, vous appuyez sur un bouton et voilà !
La nouvelle fonctionnalité « Entourer pour chercher » fonctionne en ouvrant le panneau Google sur votre smartphone (qui semble remplacer la méthode d’activation gestuelle de Google Assistant), puis en encerclant, en surlignant ou en tapotant quelque chose sur l’écran.
Google essaiera alors de rechercher des résultats basés sur ce que vous avez mis en évidence. La démonstration fournie par Google montre une personne entourant une paire de lunettes de natation sur un chien nageur, ce qui fait apparaître la page produit des lunettes. Google a également montré comment vous pouvez faire glisser votre doigt sur un texte pour le rechercher, à la manière d’un logiciel de reconnaissance optique de caractères (OCR).
Si Entourer pour chercher vous semble familier, c’est probablement parce que Google a expérimenté la détection d’objets et de texte à l’écran sur Android à de nombreuses reprises par le passé. Google Now on Tap a été introduit sur les smartphones Android en 2015, qui a scanné votre écran à la recherche de texte et a détecté des termes de recherche. Par exemple, en l’ouvrant dans une conversation textuelle où l’on parle d’un restaurant, on pouvait faire apparaître les informations de Google Maps relatives à ce restaurant. Cette fonctionnalité a été discrètement abandonnée à un moment donné, mais Google a ensuite ajouté une sélection de texte de base au volet multitâche d’Android.
Entourer pour chercher semble être un retour à l’ancienne fonctionnalité Google Now on Tap, mais avec la possibilité d’être plus sélectif dans ce qui est recherché. Il se pourrait également que l’IA Gemini soit utilisée pour la détection d’objets sur l’appareil. Google n’a pas confirmé ce détail, mais il a mentionné que la fonctionnalité sera déployée d’abord sur les Pixel 8, Pixel 8 Pro et la série Galaxy S24, qui sont les seuls smartphones qui prennent en charge l’IA Gemini sur l’appareil à l’heure actuelle.
Une vue d’ensemble alimentée par l’IA de recherche multiple
Entourer pour chercher s’accompagne d’une mise à jour de la fonction de recherche multiple de Google. La recherche multiple est une fonctionnalité existante de Lens qui vous permet de modifier les recherches visuelles — prenez une photo d’une paire de chaussures blanches, recherchez-la avec Lens, puis ajoutez le mot « rouge » pour obtenir un ensemble différent de résultats avec des chaussures rouges. Désormais, vous pourrez ajouter des questions complexes pour affiner votre recherche visuelle. Vous pouvez prendre la photo d’une plante, l’ajouter à votre recherche et demander « À quelle fréquence dois-je l’arroser ? ». Il s’agit d’un exemple donné par Google, mais je le trouve très pertinent, car j’ai déjà tué plus d’une plante à cause d’un arrosage excessif. Comme l’explique Google, la recherche multiple est l’outil qu’il vous faut lorsque vous voulez savoir pourquoi quelque chose est, et pas seulement ce que c’est.
La nouvelle fonctionnalité Entourer pour chercher sera disponible à partir du 31 janvier. Cependant, comme indiqué précédemment, vous aurez besoin d’un Pixel 8 ou d’un Galaxy S24 pour l’essayer. Contrairement à Entourer pour chercher, la recherche multiple améliorée sera disponible dans l’application Google à partir d’aujourd’hui pour tous les appareils Android, mais uniquement aux États-Unis pour le moment.