Bienvenue BERT: le dernier algorithme de recherche Google pour mieux comprendre le langage naturel

Google apporte le changement le plus important dans son système de recherche depuis la création de RankBrain, il y a presque cinq ans. La société a déclaré que cela affecterait 1 requête sur 10 en termes de modification des résultats classés pour ces requêtes.

Déploiement. BERT a commencé à être mis en œuvre cette semaine et sera bientôt opérationnel. Il est actuellement mis en œuvre pour les consultations en anglais et sera étendu à d’autres langues à l’avenir.

Fragments en vedette. Cela affectera également les fragments présentés. Selon Google, le BERT est utilisé dans le monde entier, dans toutes les langues, dans des extraits de code.

Qu'est-ce que le BERT? Il s'agit de la technique de pré-formation du traitement du langage naturel (PNL) basée sur les réseaux de neurones de Google. BERT signifie Transformers Bidirectional Encoder Representations.

Il a été ouvert l'année dernière et a été écrit plus en détail dans le blog de Google AI. En bref, BERT peut aider les ordinateurs à comprendre le langage un peu plus que les humains.

Quand utilise-t-on le BERT? Selon Google, BERT permet de mieux comprendre les nuances et le contexte des mots dans les recherches et combine au mieux ces requêtes avec des résultats plus pertinents. Il est également utilisé pour les fragments décrits, comme décrit ci-dessus.

Dans un exemple, Google a déclaré que le mot "un" et son lien avec les autres mots dans Consultations sont importants pour comprendre le "voyageur brésilien de 2019 aux États-Unis. Vous avez besoin d'un visa". le sens Auparavant, Google ne comprenait pas l’importance de cette connexion et renvoyait les résultats concernant les citoyens américains se rendant au Brésil. "Avec BERT, Search peut comprendre cette nuance et savoir que le mot très courant" t "compte vraiment beaucoup ici, et que nous pouvons fournir un résultat beaucoup plus pertinent pour cette requête", a expliqué Google.

Remarque: Les exemples ci-dessous sont donnés à titre indicatif et peuvent ne pas fonctionner dans les résultats de recherche en direct.

Dans un autre exemple, une recherche sur "les esthéticiens travaillent-ils dur? Google a indiqué qu'elle aurait déjà fait correspondre le terme" indépendant "au mot" stand "utilisé dans la requête. Les modèles BERT de Google peuvent" comprendre que " 39; soutien & # 39; il est lié au concept des exigences physiques d'un travail et montre une réponse plus utile ", a déclaré Google.

Dans l'exemple ci-dessous, Google peut comprendre une requête plus comme un humain pour afficher un résultat de recherche plus pertinent. dans "Pouvez-vous obtenir des médicaments pour quelqu'un dans une pharmacie?"

Exemple d'un fragment important. Voici un exemple de Google qui montre un fragment important qui est plus pertinent pour la requête "Stationner sur une colline sans bordure." , une requête comme celle-ci confondait les systèmes de Google. Google a déclaré: "Nous avons accordé trop d'importance au mot" curb "et ignorer le mot" non ", sans comprendre à quel point il était essentiel de répondre correctement à cette requête. Par conséquent, nous vous renverrions les résultats du stationnement sur une colline avec un trottoir. "

RankBrain n'est pas mort. RankBrain fut la première méthode d'intelligence artificielle de Google pour comprendre les requêtes en 2015. Il analyse à la fois les requêtes et les réponses. contenu des pages Web dans l'index de Google pour mieux comprendre la signification des mots.BERT ne remplace pas RankBrain, c'est une méthode supplémentaire pour comprendre le contenu et les requêtes.Il est additif au système de classement de Google. RankBrain peut et Elle sera toujours utilisée pour certaines requêtes, mais si Google estime qu'une requête peut être mieux comprise à l'aide de BERT, elle l'utilisera, car une seule requête peut utiliser plusieurs méthodes, y compris BERT, pour la comprendre.

Google a expliqué qu'il y avait plusieurs façons de comprendre le sens du langage dans votre requête et son rapport avec le contenu. Par exemple, si vous tapez quelque chose de mal, les systèmes orthographiques de Google peuvent vous aider à trouver le mot approprié pour obtenir ce dont vous avez besoin. Et / ou si vous utilisez un mot synonyme du mot figurant dans les documents pertinents, Google peut correspondre à ceux-ci. BERT est un autre signal que Google utilise pour comprendre la langue. Selon ce que vous recherchez, n'importe lequel de ces signaux ou une combinaison de ceux-ci pourrait être davantage utilisé pour comprendre votre requête et fournir un résultat pertinent.

Pouvez-vous optimiser pour BERT? C'est peu probable. Google nous a dit que le référencement ne peut pas vraiment optimiser pour RankBrain. Mais cela signifie que Google améliore sa compréhension du langage naturel. Écrivez simplement du contenu pour les utilisateurs, comme toujours. Ce sont les efforts de Google pour mieux comprendre la requête du moteur de recherche et la faire correspondre aux résultats les plus pertinents.

Pourquoi on s'en soucie. Cela nous importe, non seulement parce que Google a déclaré que ce changement "représente la plus grande avancée des cinq dernières années et l'une des plus grandes avancées de l'historique des recherches".

Mais aussi parce que 10% de toutes les demandes de renseignements ont été touchées par cette mise à jour. C'est un grand changement. Nous avons vu des rapports non confirmés de mises à jour d'algorithmes au milieu de la semaine et au début de cette semaine, qui pourraient être liés à ce changement.

Nous vous recommandons de vérifier les changements dans le trafic de recherche la semaine prochaine et de déterminer dans quelle mesure votre site a été affecté par ce changement. Dans l'affirmative, déterminez quelles pages de destination ont été affectées et pour quelles requêtes. . Vous remarquerez peut-être que ces pages n'ont pas été converties et que le trafic de recherche envoyé par Google à ces pages n'a pas été utile.

Nous l'observerons de près et pouvons nous attendre à davantage de contenu de la part du BERT à l'avenir.


À propos de l'auteur

Barry Schwartz est éditeur de nouvelles pour Search Engine Land et possède RustyBrick, une société de conseil Web basée à New York. . Il dirige également Search Engine Roundtable, un blog de recherche populaire sur des sujets liés au SEM.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *