Le budget crawl ou budget d’exploration en français est dĂ©fini comme le nombre limite de pages qu’un robot d’indexation peut crawler. Celui-ci tient compte de plusieurs critères lors de son exploration d’un site web : le nombre d’URLs du site, la vitesse d’exploration, la qualitĂ© du contenu et sa frĂ©quence d’actualisation… Comment fonctionne exactement ce budget crawl ? En quoi est-il utile Ă  votre rĂ©fĂ©rencement naturel ? Et comment faire pour l’optimiser. Explications.

Définition du budget crawl

Le budget crawl dĂ©signe l’ensemble des ressources que le robot d’un moteur de recherche (Googlebot, Bingbot ou Slurp pour Yahoo) met en place pour parcourir chacune des URLs d’un site web. Pour renouveler et amĂ©liorer leur index, les robots des moteurs de recherche doivent le mettre constamment Ă  jour. Cette Ă©tape passe par le crawl en premier puis, par l’indexation en second. Pour proposer des rĂ©sultats pertinents et en rapport avec les requĂŞtes des internautes, les robots de Google (Bing ou Yahoo) explorent continuellement le Web. Lorsque des nouvelles pages se prĂ©sentent et qu’elles peuvent ĂŞtre indexĂ©es de par la qualitĂ© de leurs contenus (textes, articles, vidĂ©os, podcasts ou images), alors, les robots les ajoutent Ă  leurs prĂ©cieux index. Chaque nouvelle information pertinente peut ĂŞtre rĂ©fĂ©rencĂ©e et ĂŞtre ajoutĂ©e Ă  un rĂ©pertoire propre Ă  chaque robot. L’objectif du budget crawl est de voir son site et ses pages indexĂ©es dans leur totalitĂ© ou partie la plus importante pour le rĂ©fĂ©rencement.

Comment les robots trouvent-ils des pages Ă  explorer et Ă  indexer ?

Le but de Google et des moteurs de recherche est de toujours donner la meilleure information possible aux internautes. Les robots explorent continuellement la toile afin de rĂ©cupĂ©rer des pages de sites Internet pour les envoyer Ă  des fins d’indexation par les moteurs de recherche. Googlebot crawle par exemple chaque jour 20 milliards de sites web. Pour actualiser et vĂ©rifier leur index, les robots ont plusieurs possibilitĂ©s :

  • suivre des liens internes et externes de pages ;
  • parcourir les sitemaps XML ;
  • vĂ©rifier les pages qui renvoient un code HTTP 200.

Sachez que ce sont les robots qui dĂ©cident de venir sur vos pages. Il n’existe pas de frĂ©quence d’indexation mesurĂ©e et mesurable. GĂ©nĂ©ralement, la règle en SEO dit que : plus un site ou une page est mis Ă  jour, plus les robots viennent vous visiter. En rĂ©sumĂ©, les robots aiment l’actualitĂ©.

Quels sont les critères d’exploration ?

Pour définir la quantité de ressources accordée à un site web, les robots des moteurs de recherche (Google, Bing, Yahoo !) tiennent compte de plusieurs critères. Parmi ces principaux paramètres, on trouve :

  • le temps de rĂ©ponse du serveur ;
  • la profondeur des liens internes ;
  • la rĂ©gularitĂ© des mises Ă  jour ;
  • la qualitĂ© et la pertinence des informations dans la page.

Comment optimiser votre budget crawl ?

Vous souhaitez optimiser votre budget crawl pour bĂ©nĂ©ficier d’une exploration optimale spiders de Google ou Bing ? Pour cela, il faut que votre site soit performant sur des points essentiels. Plusieurs axes d’optimisation doivent, en effet, rĂ©pondre aux critères d’exploration des crawlers. Voici les critères importants :

  • amĂ©liorer le temps de rĂ©ponse du serveur ;
  • augmenter le temps de chargement de chacune de vos pages (compression des mĂ©dias et lazy loading) ;
  • rĂ©diger et publier rĂ©gulièrement des articles exhaustifs et de qualitĂ© ;
  • Ă©viter le duplicate content (contenus dupliquĂ©s) en crĂ©ant des redirections 301 ou en utilisant des balises canoniques ;
  • ne pas avoir de liens cassĂ©s ou liens dits « morts » ;
  • corriger vos pages 404 ;
  • mettre en place une stratĂ©gie efficace de netlinking (maillage interne et backlinks de qualitĂ©).

Pour vous accompagner dans l’optimisation de votre budget crawl et vos projets de rĂ©fĂ©rencement naturel, notre agence SEO vous accompagne en vous proposant des stratĂ©gies et actions sur mesure, adaptĂ©es Ă  votre projet.