Si vous suivez le SEO, vous avez certainement entendu parler de la fuite massive de données qui a touché Google dernièrement (plus de 2 000 documents). Elle a été révélée par Rand Fishkin de Sparktoro qui est entré en contact avec la personne à l’origine de la fuite. Mike King du site IPullRank est revenu en détail sur le contenu de ce leak.
Il est important d’indiquer que Google a préféré ne pas commenter ce leak. Il convient aussi de préciser que les documents divulgués ne montrent pas le poids spécifique des éléments comme facteurs de classement, ni quels éléments sont réellement utilisés dans les systèmes de classement. Par ailleurs, ce n’est pas parce que Google collecte des données qu’il les utilise.
Lyndra-Good a tiré pour vous 10 enseignements potentiels de ce leak pour votre SEO.
À retenir :
Google utiliserait un signal de domaine d’autorité
Google considèrerait l’auteur comme une entité pour évaluer l’expertise
Google utiliserait bien les clics des utilisateurs sur les pages web comme facteur de classement
Les liens seraient pondérés selon 3 niveaux de qualité
Une Sandbox serait utilisée pour classer les sites selon leur ancienneté
La taille de la police serait prise en compte pour évaluer les liens
Google allouerait des ressources limitées dans l’examen des pages
Le contenu original serait valorisé
Le contenu récent serait valorisé
Google appliquerait certaines mesures de rétrogradation
Domain Authority
Les documents qui ont fuité montrent que Google utiliserai un signal dénommé « siteAuthority ». On peut le rapprocher du « Domain Authority » utilisé par des outils comme Moz ou Semrush. Chez ce dernier, le score d’autorité mesure la réputation d’un domaine en prenant la force des liens, le trafic organique et l’existence de spams.
En l’espèce, il n’est pas indiqué ce que contient ce facteur, ni quelle est sa pondération.
Fonction « auteur »
Google considèrerait l’auteur d’un contenu comme une entité pour déterminer le niveau d’expertise d’une page web, en référence à l’EEAT (« experience, expertise, authoritativeness, trustworthiness » ou « expérience, expertise, autorité, confiance » en Français).
L’utilisation des clics
Contrairement aux déclarations publiques de Google, le moteur de recherche utiliserait bien les clics des utilisateurs sur les pages web comme facteur de classement. Ce dernier serait lié à un système intitulé NavBoost qui serait utilisé aussi bien pour améliorer la position d’une page que pour la dégrader. Pour ce faire, Google se serait servi des données issues de son navigateur Chrome. NavBoost distinguerait plusieurs catégories de clics, notamment :
- les bons clics mesureraient les interactions positives des utilisateurs avec les résultats de recherche ;
- les mauvais clics mesureraient les interactions négatives des utilisateurs avec les résultats de recherche ;
- le temps passé par l’internaute sur une page Web après avoir cliqué sur les résultats de recherche Google avant d’y revenir…
Pondération des liens
Selon les données qui ont fuité, les liens n’auraient pas tous le même poids en SEO. Ils seraient répartis dans 3 index correspondant aux niveaux de qualité suivants : faibles, moyens et élevés.
Ces derniers seraient déterminés selon le volume de clics que ces liens produisent. Ainsi, une page populaire serait placée dans l’index des liens de qualité et pourrait diffuser son Pagerank ou filtrée par les systèmes de spam. Un lien de l’index de basse qualité serait tout simplement ignoré.
Une Sandbox pour l’ancienneté des sites
Les documents montrent qu’il existerait une Sandbox (« bac à sable ») qui classerait les sites web selon leur ancienneté et la confiance qui leur est accordé. Cela laisse à penser que le positionnement des nouveaux sites sur des requêtes concurrentielles serait limité. À l’inverse, les sites bien établis rankeraient plus facilement.
La prise en compte de la taille de la police pour les liens
Si les porte-paroles de Google ont tendance à dévaloriser les liens ces derniers temps, les documents révélés par Rand Fishkin montrent qu’il n’en est rien. Ainsi, il faut savoir qu’un détail visuel comme la taille de la police des textes d’ancre de lien serait prise en compte par Google.
Ressources limitées dans l’examen d’une page
Google disposerait d’un système de jetons pour mesurer l’originalité du contenu. Mais ce nombre de jetons serair limité. Cela signifie que si le contenu est trop long, une certaine partie de ce dernier ne serait pas pris en compte.
Si on suit cet enseignement, il serait important de placer les informations les plus importantes et les plus uniques de son contenu aussi haut que possible sur la page afin de garantir son examen par Google.
La prime à l’originalité...
En SEO, Google valorise le contenu dit « exhaustif » ce qui pousse souvent à la création de contenus longs, même si cela n’est pas forcément synonyme. Or, les documents révèlent l’existence d’un « OriginalContentScore » qui semblerait s’appliquer uniquement aux contenus courts. Autrement dit, qualité n’est pas synonyme de quantité. Il faut aussi savoir faire preuve d’originalité.
…et à la fraîcheur
Autre enseignement pour le coup validé depuis longtemps par la communauté SEO : la mise en valeur des contenus frais par Google. Ce dernier disposerait de plusieurs métriques pour suivre la fraîcheur du contenu d’une page : la date affichée sur la page, la date de l’URL ou dans le titre, la date estimée extraite du contenu de la page.
Dès lors, vous devriez vous assurer de servir un contenu frais à votre audience, soit un nouveau, soit un ancien mis à jour.
Mesures de rétrogradation
Google appliquerait une batterie de mesures pour rétrograder des liens. Par exemple, si le texte d’ancre ne correspond pas au contenu du lien auquel il renvoie, Google réduirait la valeur de ce lien. Il en serait de même pour les EMD (Exact Match Domain), les pages avec une mauvaise expérience utilisateur, le contenu pour adulte…
Pour conclure, il faut bien garder à l’esprit que le contenu de cette fuite n’a pas été confirmé par Google. Toutefois, on peut estimer qu’une partie de la communication de la firme de Mountain View des derniers temps (particulièrement sur la moindre importance des backlinks) semble être infirmé par ces données dont le contenu reste encore à analyser. Si écouter ce que disent les officiels de Google est une bonne chose, le mieux reste toujours de tester par soi-même.