Que contiennent ces documents dévoilés ?

Concrètement, ces documents démontrent l’utilisation par Google de plus de 8000 attributs pour évaluer les pages web. C’est vraiment beaucoup non ?

Mais ce que les spécialistes SEO retiennent et décortiquent, ce sont les écarts notables entre les déclarations de Google et les informations issues des fuites.

En voici quelques exemples : 

  • L’existence d’un facteur “siteAuthorityest confirmée par les documents, malgré les dénégations de Google. Les sites jugés plus autoritaires auraient ainsi un avantage pour indexer leurs nouvelles pages et attirer des clics.
  • Les fuites révèlent également que Google utilise bien les clics et les interactions après-clic pour peaufiner ses classements. Ainsi, le taux de rebond, les conversions et la durée de visite influencent l’évaluation de la pertinence d’une page. Cela souligne l’importance d’autres métriques au-delà du simple taux de clics. > N’oubliez pas de travailler l’UX de votre site pour orienter l’utilisateur vers une poursuite de navigation.
  • Si Google a toujours affirmé qu’il n’y a pas de « sandbox » où les sites sont catégorisés en fonction de leur âge ou de leur manque de signaux de confiance, le document “PerDocData” révèle l’existence d’un attribut appelé ”hostAge, spécifiquement utilisé pour les nouveaux domaines. Ainsi, il semble que le classement des nouveaux sites sur des mots-clés concurrentiels soit en effet restreint.
  • En contradiction avec ses précédentes affirmations, il apparaît que Google pourrait utiliser des données de navigation de Chrome pour juger de la qualité des pages et des sites internet. Il utilise ce qu’on appelle les flux de clics du navigateur.
  • L’importance des liens pour le classement reste indéniable, contrairement une nouvelle fois, à ce que suggère la communication de Google. Rien dans les documents ne remet en question ce fait. En fait, Google utilise plusieurs mesures pour évaluer la qualité des liens, notamment l’impact du niveau d’indexation, les signaux de pic de spam de liens, l’analyse des dernières 20 versions, le PageRank et la confiance de la page d’accueil, ainsi que la taille de la police et les liens internes.
  • En ce qui concerne la longueur des pages du site, Google restreint le nombre de tokens pris en compte pour un document. Par conséquent, les auteurs devraient prioriser le placement des contenus les plus importants au début de leurs textes, même si le nombre exact de tokens pris en compte n’est pas précisé.

Ces révélations suggèrent des pratiques de classement de Google plus complexes et nuancées que ce que l’entreprise avait initialement communiqué.

Cependant, ces informations ne remettent pas en cause les fondamentaux du SEO, et les techniques quotidiennes appliquées sur les sites de nos clients ! Forts de nos tests et de notre expertise de plusieurs années, nous travaillons efficacement sur la technique d’un site, la sémantique, l’apport de popularité ainsi que sur les critères off site.

Sémantique : privilégier la qualité à la quantité

Google évalue la cohérence avec laquelle un site traite d’un sujet donné. Si votre site est dédié à la cuisine et propose des idées de recettes, résistez à l’envie de publier des articles sur les actualités SEO pour attirer des visiteurs ! Ce ne serait pas pertinent ni en lien avec votre sujet de base.

Le moteur de recherche juge la qualité des pages web à l’aide de critères spécifiques. Parmi eux, le paramètre “lowQuality” sanctionne les contenus jugés peu pertinents. Une page de qualité médiocre peut affecter négativement la perception d’autres pages liées. Google valorise alors l’effort investi dans la création de contenu via le critère “PageQuality”. Ce dernier évalue la facilité de reproduction d’une page.

Les éléments suivants renforcent ce score :

  • L’utilisation d’outils spécifiques.
  • L’intégration d’images et de vidéos.
  • La fourniture d’informations uniques.
  • Une information détaillée et approfondie.

La mise à jour régulière du contenu est également un facteur de qualité aux yeux de Google. Un contenu autrefois pertinent mais obsolète peut perdre de sa valeur. Il est donc recommandé de rafraîchir les contenus existants, ce qui peut contribuer à améliorer le trafic vers votre site. Ajouter des nouveaux contenus de façon régulière et naturelle aide également à améliorer son score.

Google semble évaluer le contenu récent en se basant sur la qualité historique du site. Si le contenu précédent est jugé de haute qualité, le nouveau contenu aura une visibilité avantagée.

Il est donc essentiel de veiller à la qualité de son texte de façon constante. Le contenu plus ancien qui n’attire pas de clics ou qui en génère peu doit être revu attentivement. Il pourrait constituer une faiblesse pour le site.

Enfin, il apparaît désormais que les titres de pages, autrefois perçus comme n’ayant d’effet que sur leurs pages respectives, pourraient influencer la performance globale du site.

> Pour être certains de ses informations : testons !

Notre équipe s’en occupe pour vous, sur des dizaines de sites au quotidien, dans le but de vous délivrer les meilleurs conseils SEO pour votre secteur d’activité.

Netlinking : l’interprétation des liens par Google

Les analyses détaillées de Mike King et d’autres spécialistes révèlent des informations précieuses sur la perception des liens internes par Google.

Un concept nommé “phraseAnchorSpamPenalty” émerge, indiquant que Google évalue les textes d’ancre des hyperliens.

Si le texte est jugé inapproprié ou abusif, son poids dans l’évaluation de la page est diminué. Les liens avec des textes d’ancre incohérents par rapport au contenu de la page de destination sont donc désavantagés. Ainsi, les formules génériques telles que « cliquez ici » ou « en savoir plus » sont déconseillées, une pratique déjà bien connue.

Google classe également les liens, qu’ils soient internes ou externes, en trois catégories : faible, moyenne et haute qualité. Cette classification s’appuie sur le trafic des pages, influençant directement le PageRank et, par conséquent, l’autorité transmise (= le jus).

Les liens issus de pages jugées de mauvaise qualité sont ignorés et n’apportent aucune valeur ajoutée. Le contenu de la page source est donc tout aussi déterminant pour l’évaluation des liens ! Et oui ! La qualité et la fréquence de mise à jour du contenu sont des critères influençant la valeur des liens (on vous en parlait juste au-dessus).

Les liens provenant de pages de bonne qualité ou récemment indexées sont privilégiés par rapport à ceux issus de pages obsolètes ou de moindre qualité. Il apparaît que les liens provenant de contenus nouveaux reçoivent une valorisation supérieure par rapport à ceux en provenance de pages anciennes.

Les pages récemment créées bénéficient d’un facteur multiplicateur de leur valeur, tandis que les pages plus anciennes s’appuient davantage sur leur trafic ou leurs liens internes pour valoriser leurs liens. N’oubliez pas que le maillage interne et les backlinks doivent être correctement travaillés, au fil de l’ajout des contenus !

Ce qu’il faut retenir des “Google Leaks”

Les révélations issues des fuites ont, pour la majorité, validé des suppositions largement répandues.

L’importance de la qualité du trafic pour évaluer l’autorité d’un site ou d’un lien est reconnue ; Les backlinks jouent toujours un rôle significatif ; Les campagnes Google Ads peuvent potentiellement influencer positivement le référencement ; La notoriété des auteurs de contenu est également prise en compte.

Ces éléments, bien qu’ils soient des confirmations de pratiques déjà suspectées, doivent être abordés avec attention. Le détail précis de l’impact de ces facteurs, leur poids dans l’algorithme de Google ou leur application directe dans le classement ne sont pas précisés.

Tous les ingrédients du SEO sont confirmés, mais pas vraiment leurs poids et leurs utilisations exactes ! Il faut donc poursuivre les tests et ne pas remettre en question les travaux SEO déjà fournis.

Il est admis que ces éléments influencent la qualité du contenu et des liens, mais pas forcément leur positionnement final dans les résultats de recherche. Il convient donc de ne pas se précipiter à faire des suppositions sur leur influence exacte sur le classement.

Malgré tout, ces informations peuvent renforcer la confiance en certaines stratégies SEO déjà en place. Elles permettent de soutenir des recommandations visant à optimiser le référencement.

> En conclusion : on continue le travail, et on vous tient au courant ! 

Gardez les bonnes pratiques SEO

Le meilleur conseil qu’on puisse vous donner c’est de tester !! Et de continuer de mettre en pratique les bases du SEO.

  • Assurez-vous que votre contenu est de bonne qualité, pertinent et unique, en accord avec les attentes de votre public cible.
  • Utilisez des mots-clés pertinents dans vos titres, descriptions et contenus, mais évitez le bourrage de mots-clés.
  • Assurez-vous que votre site est techniquement optimisé, avec une structure claire et des balises HTML correctement utilisées. Veillez à ce qu’il n’y ait pas de problèmes bloquants, comme des erreurs d’exploration, et que toutes les pages soient accessibles aux moteurs de recherche.
  • Favorisez une expérience utilisateur fluide en améliorant la vitesse de chargement de votre site et en le rendant compatible avec les appareils mobiles.
  • Développez des liens de qualité avec d’autres sites pertinents pour renforcer votre autorité en ligne.

En suivant ces bonnes pratiques, vous pouvez améliorer la visibilité et le classement de votre site dans les résultats de recherche… et si vous n’êtes pas sûrs de vous, que vous manquez de temps, ou d’expertise sur le sujet : contactez-nous vite !

En attendant, on continue de tester pour vous !