Connaissez-vous les algorithmes de Google ?

Connaissez-vous les algorithmes de Google ?
(Mis à jour le: 5 juillet 2021)
Evaluer cet article

Tous les jours, nous utilisons Google, mais nous sommes-nous déjà demandés comment il arrive à afficher les résultats suite à nos requêtes ? Comment il sélectionne les pages à lister sur la première page des SERPs ? Comment il fait pour classer tous les sites présents sur la toile ? Il y a bien sûr le SEO, mais au-delà du SEO, il y a ses algorithmes. Tâchons de comprendre comment ils fonctionnent.

Comment Google fait-il pour indexer tous les sites du web ?

Comment Google fait-il pour indexer tous les sites du web ?Une première correction s’impose déjà, ce ne sont pas tous les sites qui sont indexés par Google. Cela signifie qu’il y a des sites qui n’apparaîtront jamais dans ses résultats de recherche, même tout en bas du classement.

Comment est-ce possible ? Tout simplement parce que ces sites sont invisibles et ne font aucun effort SEO pour être référencés par le moteur de recherche. Oui, cela arrive, parfois sciemment, mais dans la majorité des cas, cette invisibilité est le fruit de l’incompétence des webmasters qui ne connaissent rien au référencement naturel et au mode opératoire de Google.

A lire – Comment gérer un projet SEO en 10 étapes ?

Pourquoi ne parle-t-on que de Google dans ce billet ? Parce que depuis des années, il reste le moteur de recherche n°1 à travers le monde, avec plus de 90% des parts de marché mondiaux. Voilà pourquoi il fait la pluie et le beau temps sur le web, une raison plus que valable pour entrer dans ses bonnes grâces.

Découvrez les parts de marché des moteurs de recherche

Comment s’y prendre ? Il faut s’informer sur ses consignes et ses exigences puis s’y conformer. On vous l’accorde, cela peut paraître difficile au début, mais à force de travail et de patience, vos efforts en référencement finiront par payer.

Mais pour comprendre ce qui se cache dans les coulisses du SEO, voici ce que vous devez savoir.

  • Sur le web, les sites sont connectés entre eux grâce aux liens. Voilà pourquoi il faut bien travailler son netlinking, tant interne qu’externe.
  • Grâce aux liens, les internautes passent de site en site, mais ils ne sont pas les seuls. Les robots crawlers, aussi appelés « spiders » ou « googlebots », suivent également ces raccourcis. Tout comme les humains, ils parcourent la toile en suivant les liens, consultent les contenus des pages et tissent, au fur et à mesure, une vaste toile qui n’est autre que l’index Google.
  • Lorsque les spiders arrivent sur une page, ils étudient plusieurs points tels que les mots clés utilisés, les liens insérés, les images d’illustration, la structure du contenu, les micro-données … En gros, ils analysent la qualité, la pertinence et la cohérence de chaque contenu. Après expertise, ils peuvent indexer la page et donc la faire apparaître dans les résultats de recherche, mais seulement si elle répond à toutes les exigences que Google a établies. Dans le cas contraire, elle restera invisible, du moins, aux yeux de Google et des internautes qui l’utilisent pour entreprendre des recherches.

Pour ce qui est du positionnement de la page dans les résultats de recherche, tout dépend maintenant de vos efforts SEO et/ou SEA. Etre indexé est donc une bonne chose, mais au final, cela ne sert à rien si vous figurez sur la centième page des résultats. Pour cause : les internautes ne consultent généralement que la première page des SERPs, voire les premières lignes qui s’affichent. Au mieux, ils iront jusqu’à la troisième page, mais jamais au-delà.

Pour en revenir au travail des googlebots, tout ce processus est aujourd’hui automatisé et ce, grâce aux algorithmes.

Quel rôle jouent les algorithmes Google dans ce travail d’indexation ?

Les algorithmes sont des sortes d’instructeurs ou de guides qui disent aux robots crawlers comment ils doivent travailler. Pour se faire comprendre des bots, ils utilisent des instructions mathématiques. Google possède de nombreux algorithmes à différents niveaux, mais dans le domaine du SEO, leurs consignes porteront surtout sur :

  • Les points à retenir pour indexer une page
  • La technique pour comprendre ces pages, car rappelons-le, les robots n’ont pas la même capacité de compréhension que nous les humains. Certes, grâce à l’Intelligence Artificielle déployée par le moteur de recherche, ils sont plus doués qu’auparavant, mais cette aptitude repose, pour eux, sur les instructions mathématiques
  • La manière de juger la qualité d’une page afin de la classer ou non dans les résultats de recherche

Il faut savoir que les algorithmes de Google évoluent sans cesse. Les instructions mathématiques émises peuvent alors changer quotidiennement en fonction des besoins. Le but est aujourd’hui d’améliorer l’expérience utilisateur (UX). Pour ce faire, les innovations constantes visent à améliorer la pertinence des résultats affichés, non plus en fonction des mots clés saisis, mais en fonction des réelles attentes des internautes qui se cachent derrière ces mots clés.

La priorité des algorithmes : proposer les résultats les plus pertinents possibles et donc les résultats qui peuvent réellement apporter des réponses claires aux utilisateurs du moteur de recherche.

Quel impact les algorithmes ont sur le travail des webmasters ?

Quel impact les algorithmes ont sur le travail des webmasters ?Pour les webmatsers, comprendre exactement comment les algorithmes fonctionnent est la première étape pour faire indexer leur site. Ensuite, il faut connaître leurs différentes exigences pour bien référencer les pages du site. On a déjà parlé de la qualité et de la pertinence, mais ce n’est pas tout.

Au fil des mises à jour et des avancées technologiques, les algorithmes évoluent sans cesse. Chaque jour, Google mène des mises à jour mineures qui n’ont pas vraiment d’impacts sur le positionnement des sites. Mais outre ces petites améliorations, il mène également quelques mises à jour majeures par an et celles-là peuvent impacter le classement général des sites. On se rappelle sûrement la Medic Update de 2018 ou encore la June 2019 Broad Core Algorithm Udpate. Beaucoup de sites ont été impactés par ces dernières.

Mais si on travaille déjà sur la qualité et la pertinence, peut-on encore être touché par ces mises à jour ? La réponse est oui. Pour cause, ce ne sont pas les seules exigences de Google et ces exigences évoluent au fur et à mesure que les besoins des internautes changent. Oui, les webmasters ne sont pas les seuls à être mis sous pression, car Google lui-même se doit de maintenir son très haut niveau pour rester leader dans son domaine. C’est ce qui explique pourquoi il ne cesse d’évoluer et d’améliorer même si cela doit lui faire revoir ses positions.

A chaque mise à jour majeure, les algorithmes voient leurs instructions évoluer (et non pas changer). A la qualité et la pertinence s’ajoutent alors qu’autres critères de classement comme la vitesse de chargement d’une page, l’expérience utilisateur, la sécurité d’un site, l’ergonomie du site …

Et en complément du travail des algorithmes en charge du SEO, la firme de Mountain View a aussi déployé des algorithmes qui jouent les polices sur la toile. Leur mission ? Faire la chasse aux sites indexés qui cessent de se conformer à ses règles évolutives. Si ces derniers persistent à ne pas respecter les nouvelles consignes établies au fur et à mesure des mises à jour, les sanctions tombent et peuvent mener à une désindexation du site.

Autrement dit, chaque mise à jour de Google impose aux webmasters une mise à jour de leur propre site. C’est pour cela qu’on dit que le référencement naturel est un travail continu puisque d’un jour à l’autre, les critères prioritaires d’aujourd’hui passeront peut-être en second plan demain.

Pour limiter les impacts sur vos sites, il est conseillé de toujours se conformer aux premières règles de base du moteur de recherche comme la qualité, la vitesse de chargement, les liens, l’ergonomie, les balises …

Quels sont les principaux algorithmes de Google ?

Quels sont les principaux algorithmes de Google ?Dès sa création en 1998, Google utilise des algorithmes dont l’un des premiers fut le PageRank. Le moteur de recherche l’utilise pour analyser les backlinks d’un site tant en quantité qu’en qualité. Il influe sur le positionnement du site dans les résultats de recherche. Il occupe toujours ce rôle de nos jours, mais plusieurs autres sont venus lui porter main-forte.

Google Page Experience

Prévu pour cette année 2021, cette nouvelle mise à jour de Google cible principalement l’User eXperience (UX) ou expérience utilisateur. Pour les webmasters, améliorer l’expérience des utilisateurs sur leur site est donc plus important que jamais. Voilà pourquoi, le SEO bascule de plus en plus vers le SXO qui associe à la fois SEO et UX. Puisque le géant américain a déjà annoncé le déploiement de cette mise à jour, mieux vaut prendre les devants que de subir le remaniement qui sera inévitable.

BERT

Déployé en 2019, cette mise à jour a permis aux algorithmes de mieux comprendre les requêtes des internautes. Pour ce faire, une analyse des mots et des expressions utilisées par les utilisateurs est menée afin de les hiérarchiser. Cela signifie que depuis BERT, les googlebots privilégient surtout les contenus de qualité qui apportent des informations réellement utiles et à forte valeur ajoutée aux internautes. Là, on remet la pertinence au-devant des scènes.

Medic

Réalisé en 2018, cette mise à jour a surtout ciblé les sites axés sur le YMYL (Your money your life). Ce domaine regroupe les secteurs de la finance, de la santé, du bien-être, des conseils sur la vie … A travers cette amélioration, Google impose un niveau de qualité plus élevé à ces sites afin que les internautes puissent accéder à des informations exactes, impartiales et autant que possible, fournies par des professionnels. Aujourd’hui, les sites YMYL ne sont plus les seuls concernés, puisque tous les domaines doivent se plier à ces recommandations.

Fred

Lancé en 2017, la mise à jour baptisée Fred a pour mission de lutter contre l’affichage abusif de publicités. Les sites qui ont tendance à en afficher trop ont été les premiers ciblés, car le trop-plein de publicités nuit à l’expérience utilisateur. Aujourd’hui, les publicités sont autorisées, mais à petite dose pour ne pas gêner la navigation sur le site et la consultation des contenus.

Mobile First

A partir de 2015, l’index Mobile First a vu le jour. Cette mise à jour a rajouté un autre critère de classement durant l’indexation des sites sur la toile à savoir : la compatibilité des pages du site avec les petits écrans des smartphones. Pour cause : de plus en plus d’utilisateurs se connectent à Internet via leur mobile. Il a donc été nécessaire d’adapter les sites aux écrans mobiles afin que l’ensemble des pages s’affiche en entier. Le but : éviter aux internautes de scroller de gauche à droite, car cela complique la compréhension des contenus.

A partir de 2017, l’index Mobile First a été déployé obligeant les webmasters de se plier aux exigences du Responsive Design. Quant aux nouveaux sites créés, ils passent directement sous indexation mobile.

Pigeon

La mise à jour nommée Pigeon repose sur la géolocalisation des internautes pour afficher les résultats de recherche. Elle influe surtout sur les recherches locales afin d’apporter des réponses précises aux utilisateurs. Tous les commerces de proximité ont intérêt à respecter les exigences que ce volatile implique.

A lire – Référencement local : les meilleures techniques pour l’améliorer

Phantom Update

Déployé en 2015, la mise à jour Phatom fait la chasse aux sites qui publient des contenus médiocres et peu pertinents. Notez que dès cette année, Google a déjà commencé à tenir compte de l’expérience utilisateur et dès cette époque, il a commencé à faire le ménage du côté des sites inutiles.

Hummingbird (Colibri)

En 2013, la mise à jour Hummingbird a apporté des changements majeurs dans le domaine du SEO, car le moteur de recherche a commencé à intégrer l’intelligence artificielle.

Une autre mise à jour, le Rankbrain, a ensuite été lancée en 2015 pour renforcer les améliorations apportées.

Suite à ces deux mises à jour, les algorithmes ont commencé à comprendre l’intention des internautes au lieu de se baser uniquement sur la juxtaposition de mots-clés. Les robots ont même réussi à interpréter les questions les plus complexes puisque dès lors, ils ont eu la capacité de proposer des résultats plus pertinents et des réponses plus précises en fonction des requêtes des users.

Google Penguin

Cet autre volatile de Google a été lancé en 2012. Tout comme les autres, il a pour objectif d’améliorer les résultats de recherche. Son rôle, à lui, consiste toutefois à analyser le netlinking afin de sanctionner les sites qui en abusent. En effet, sa grande hantise ce sont les sites suroptimisés qui font appel au Black Hat SEO afin de donner un coup de boost à leur positionnement dans les résultats de recherche. Dans la majorité des cas, les webmasters qui ont recours à cette technique malhonnête privilégie plus leur classement à l’expérience utilisateur et Google ne cautionne pas cela.

Depuis 2016, le géant de Mountain View a même élargi les fonctions de son Penguin puisqu’il faut désormais partie de son algorithme principal qui fonctionne en temps réel. Ne le sous-estimez surtout pas, car les sanctions peuvent être très sévères.

Page Layout

La mise à jour Page Layout est un peu l’ancêtre de Fred puisque celle-ci avait aussi pour mission de sanctionner les sites qui abusent de la publicité, surtout celles publiées au-dessus de la ligne de flottaison. Elle a été déployée en 2012 et figure parmi les premières étapes de Google vers l’amélioration de l’UX.

Pirate

Cette mise à jour a été déployée en 2012 pour désindexer les sites qui proposent des téléchargements illégaux. Elle a également dans son viseur ceux qui ont reçu des plaintes vous violation de droits d’auteur.

Exact Match Domain

Toujours en 2012, Google lance la mise à jour Exact Match Domain. Comme son nom l’indique, il s’intéresse aux noms de domaine des sites afin d’empêcher ceux de mauvaise qualité d’apparaître sur les premières pages des résultats de recherche. Il faut effectivement souligner qu’à cette époque, certains webmasters utilisaient des noms de domaine très recherchés juste pour monter dans le classement des SERPs.

Google Panda

Le Panda de Google fait aussi partie de ses animaux domestiques les plus craints de nos jours. Il a été lancé en 2011 et se présente comme un filtre de recherche qui met la barre très haute en termes de qualité. Après son déploiement, de nombreux sites ont chuté dans les résultats des SERPs, preuve qu’il ne faut pas le sous-estimer, aussi mignon soit-il.

Jusqu’à nos jours, sa mission reste inchangée : partir à la chasse des sites proposant des contenus de qualité médiocre et à faible valeur ajoutée. Il mène également d’autres rôles à savoir détecter et pénaliser les contenus dupliqués et le bourrage de mots-clés.

Grâce à lui, Google a pu faire le grand ménage dans sa base de résultats en supprimant les pages qui ne respectaient, décidément pas, ses nouvelles exigences.

Caffeine

Déployée en 2010, la mise à jour Caffeine s’intéresse surtout à l’indexation des pages et à la vitesse de crawl. Autrement dit, il permet à ses spiders de travailler plus vite afin de proposer des résultats récents dans les SERPs. Aujourd’hui, les googlebots crawlent les pages instantanément donc soignez toujours chaque contenu avant de le mettre en ligne, car les robots le scruteront très vite.

Sur quels critères doit-on se baser pour qualifier un site de qualité ?

Sur quels critères doit-on se baser pour qualifier un site de qualité ?S’il y a bien un terme que l’on reprend depuis le départ c’est le mot « qualité ».

Comment peut-on s’assurer que notre site est de qualité ?

D’après Google, un site de qualité est celui qui :

  • Répond aux attentes des internautes (UX) en leur facilitant l’accès aux informations souhaitées et en répondant exactement à leur requête. Si une personne lance une requête du genre « signification rose jaune », le moteur de recherche n’affichera que les pages pertinentes qui proposent du contenu là-dessus.
  • Respecte les exigences de ses différents algorithmes (SEO). La seule difficulté sur ce point c’est que des algorithmes, il en a beaucoup et chacun a des attentes différentes. Votre quête de la qualité consistera donc à toujours garder ces exigences en tête et savoir les associer dans chaque contenu fourni.

En résumé : la qualité dépend entièrement des attentes, et des utilisateurs humains, et des robots crawlers. Voilà pourquoi il est aujourd’hui important de parler de SXO (Search eXperience Optimization), et non plus de SEO. Ce dernier tient compte, à la fois, des besoins des utilisateurs que des robots.

Sur quels critères faut-il se baser pour atteindre la qualité ?

Pour espérer figurer dans les premiers résultats de recherche, voici les points que vous devez soigner :

  • Le contenu :

Depuis le temps qu’on le ressasse, vous devez sûrement déjà connaître la petite phrase « le contenu est roi ». Aujourd’hui, plus que jamais, il est temps de la ressortir et de l’appliquer. Pour cause, si les internautes viennent sur la toile c’est pour trouver du contenu, et du bon. Qu’il s’agisse de textes de fond, de guides, d’actualités, de vidéos, d’images, de podcasts, de livres blancs, de webinaires, de fiches produit … tout ce que vous publiez sur votre site doit être original, unique et à forte valeur ajoutée.

Chaque mot, chaque phrase, chaque questionnement … doit apporter une information précise et utile. On évitera aussi les informations obsolètes, sauf si vous parlez d’histoire. Notez que c’est cet aspect-là du contenu que recherchent les internautes.

Du côté des spiders, les attentes sont un peu différentes. Bien sûr, il y a la richesse du fond, mais il faut également penser à la structure du texte qui doit être agréable à lire, à la lisibilité des phrases, à la qualité des images que vous insérez et aux mots-clés utilisés. C’est grâce aux expressions clés utilisées que les googlebots vont vous faire apparaître dans les SERPs en fonction des requêtes lancées. Pour autant, il faut éviter le bourrage de mots-clés ou suroptimisation de mots-clés, car Panda n’aime pas cela. D’ailleurs, il ne manque jamais une occasion pour détecter ce genre de pratique et gare à vous, si vous tentez de réveiller sa fureur.

Découvrez aussi le Negative SEO

  • La structure globale du site :

Il ne sert à rien de publier des contenus de qualité sur un site totalement désordonné, non sécurisé et lourd.

Il est d’ailleurs plus pertinent de travailler l’aspect technique de son site avant de se mettre à le remplir de contenus. Pour ce faire, pensez à l’indexation mobile, soit basculer du classique http vers le https. Assurez-vous également qu’il bénéficie d’un certificat de sécurité SSL surtout si des paiements doivent se faire sur votre site ou si vous comptez demander des données personnelles de vos lecteurs.

Autre point essentiel : son ergonomie. Faites en sorte que l’accès aux informations soit aisé pour les internautes. Cela concerne les différentes catégories et sous-catégories à mettre en place, les tags, les funnels de vente et aussi, la vitesse de chargement de la page. Une page qui met plus de 3 secondes à s’afficher fait fuir une grande partie des internautes.

  • La notoriété du site :

La notoriété ou e-réputation du site influe directement sur ce qu’on appelle « autorité du site ». Plus un site est connu, plus Google va vouloir le mettre en avant sur les pages des résultats de recherche. Mais comment se faire connaître sur cette gigantesque toile ?

Avant tout, il faut essayer de se démarquer des concurrents en proposant des contenus uniques et bien référencés. Ensuite, il faut se faire un peu de publicité sur les réseaux sociaux. Enfin, il faut améliorer ses campagnes de netlinking.

Le netlinking est la principale base qui va vous aider à vous faire connaître sur le web. D’une part, les liens vont faciliter la navigation des internautes et des bots sur la toile et d’autre part, c’est en suivant des liens que les spiders découvrent de nouvelles pages à indexer.

De plus, dans la logique de Google, un site qui reçoit beaucoup de liens de qualité ne peut être que pertinente et donc à mettre en avant. Là, on évoque un autre point phare : la qualité des liens. Oui, ils doivent également être soignés et pour ce faire, on s’intéressera surtout à leur cohérence avec le sujet, avec le domaine d’activités, avec le contenu et avec l’ancre de lien.

Tout ceci signifie que pour atteindre l’excellence aux yeux de Google, le SEO est un passage obligé. Bien sûr, vous savez déjà que cela regroupe de nombreuses techniques (pas toutes mentionnées ici), mais à appliquer avec celles qu’on a évoquées.

Comment savoir si on a été pénalisé pour non-respect d’un algorithme ?

Sur le web, il y a de nombreux sites non indexés et donc qui n’ont aucune chance d’apparaître dans les résultats de Google. Parmi eux, certains ne sont juste pas bien référencés tandis que d’autres ont été désindexés pour non-respect des exigences de ses algorithmes. Oui, les sanctions ne sont pas à négliger, car il y va de votre visibilité sur la toile.

Il est essentiel de faire un suivi des statistiques au quotidien pour surveiller le classement de son site. En matière de pénalité, deux cas sont possibles :

  • Vous remarquez une « chute brutale » de vos pages dans les SERPs. Cela peut s’expliquer, soir par une pénalité, soit par une mise à jour majeure de Google. Dans les deux cas, il s’agit d’une pénalité automatique attribuée par un algorithme.
  • Vous recevez un message d’avertissement de Google suite à une inspection menée par un de ses employés. C’est ce qu’on appelle « pénalité manuelle ». Dans ce cas-ci, il vous suffit de résoudre le problème évoqué puis demandez un réexamen auprès de la plateforme pour faire lever la sanction.

Attention, la chute brutale dans les SERPs ne doit pas être confondue avec une chute légère, mais sur le long terme. La chute brutale équivaut à un recul de plusieurs pages (30, 40 …) dans les SERPs et ce, du jour au lendemain. La perte de positionnement légère se fait, quant à elle, en douceur avec un recul d’une ou deux pages au quotidien, mais sur le long terme. Dans ce dernier cas, il peut s’agir d’efforts SEO à renforcer. Un audit SEO peut être nécessaire pour déterminer quels sont les points à améliorer.

Partager cet article

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *