Plus tôt cette année, Google a montré de nombreuses fonctions qui concerneraient Google Lens à l’avenir – il semblerait que ce soit maintenant que ces fonctions commencent à être disponibles pour le grand public. Google a décrit son avenir dans l’analyse intelligente de l’information avec sa conception unifiée multitâche, ou MUM. La toute première série de fonctionnalités de Google Lens est sur le point d’être mise à la disposition du grand public en utilisant le MUM pour rechercher des réponses avec Google de manière inédite.
Google Lens : Des images et des messages en une seule recherche
Une fonction permet d’améliorer la méthode de lancement d’une recherche de second niveau. Un peu comme lorsque vous effectuez une recherche sur Google Images et que vous recherchez des images similaires, Google Lens sera rapidement capable non seulement de vous révéler des résultats basés sur une photo d’exemple, mais aussi d’élargir votre recherche.
Google a montré un exemple de cette collection étendue de capacités avec la photo d’un t-shirt avec un motif floral. L’utilisateur clique sur le symbole Lens (Google Lens) et tape “chaussettes avec ce motif”, et Google comprend ce qu’il cherche. Ce tout nouveau système de recherche utilise une combinaison d’éléments d’image et de texte dans une demande unique pour obtenir des résultats.
En offrant à l’internaute la possibilité de combiner des images et des messages en une seule recherche, Google affirme qu’il “facilite la recherche esthétique et l’expression de vos préoccupations de manière plus naturelle”.
Recherche de type pointer et demander
Un autre exemple d’une collection de résultats de recherche plus puissants que Google lancera bientôt est celui des résultats de clips vidéo. Si vous utilisez Google Lens pour photographier une pièce cassée de votre bicyclette et que vous saisissez “comment la réparer”, vous obtiendrez non seulement des pages de résultats avec des didacticiels, mais aussi certains moments en vidéo.
C’est le mode de navigation “pointer et demander”, tel que Google le définit. De même, Google prévoit d’améliorer le mode d’analyse du contenu Web des clips vidéo, avec des “sujets associés dans une vidéo”. Google a suggéré cette semaine qu’avec MUM, ils sont en mesure de montrer “des sujets connexes qui ne sont pas clairement indiqués dans la vidéo”.
Google a suggéré que la “version initiale de cet attribut” (le petit bout de contexte de la vidéo) sortira certainement “dans les semaines à venir.” Il y aura également d’autres améliorations esthétiques de ce système dans les mois suivants.
Google Lens : Ce qu’il faut savoir
Google Look affichera rapidement des résultats élargis avec une zone appelée “Choses à savoir”. Avec les “Points à savoir”, Google utilise sa compréhension de la façon dont les gens “découvrent habituellement” le sujet de votre choix (vos termes de recherche). Par exemple, si vous effectuez une recherche sur “peinture acrylique”, Google affichera certainement une zone “Points à savoir” avec des titres tels que “détaillé”, “comment nettoyer” et “modèles”, ainsi que des liens vers de courts articles, des aperçus et des vidéos.
Google proposera également des sections “affiner cette recherche” et “élargir cette recherche”, avec de nombreux conseils. Ces éléments de la formule de recherche seront lancés dans les mois à venir.
Une nouvelle collection de pages de résultats de recherche à l’aspect plus vivant fait son apparition aujourd’hui. Ce tout nouveau système de “résultats esthétiques” est conçu pour être plus “navigable” que par le passé, avec des résultats étendus provenant d’articles, d’images, de vidéos et bien plus encore, l’accent étant mis sur les aspects esthétiques plutôt que sur le texte.