Via le Webmaster Tools ou Search Console
, Google multiplie les messages aux webmasters pour leur demander de corriger leur fichier robots.txt.
En effet, Google voudrait pouvoir accéder notamment aux Fichiers CSS et Javascript pour améliorer le classement des sites dans les résultats de recherche. Ce qui veut dire que les robots de Google pourraient utiliser les informations contenues dans ces fichiers pour améliorer l’analyse d’un site.
Quelles informations les robots pourraient y trouver ? Est-ce que Google se positionne sur une meilleure prise en compte de l’expérience utilisateur ou est-ce encore un moyen de vérifier que le site est Google friendly , sans aucune manipulation cachée…
Nos systèmes ont récemment détecté un problème avec votre page d’accueil qui affecte l’affichage et l’indexation de votre contenu par nos algorithmes. Plus particulièrement, Googlebot ne peut accéder à vos fichiers JavaScript ou CSS à cause de restrictions dans votre fichier robots.txt. Ces fichiers nous permettent de comprendre que votre site Web fonctionne correctement. En bloquant l’accès à ces éléments, il est donc possible que le classement du site ne soit pas optimal.
Il est possible d’explorer un site comme le font les robots de Google et donc comprendre l’importance des différents éléments dans la page :
Et si l’on explore la profondeur de la page, on s’aperçoit que sans CSS notre site est un peu vide…
Ainsi dans l’exploration proposée, Google présente les visuels et la liste des ressources bloquées. Pour chaque ressource bloquée, Google suggère une solution via la correction du fichier.robots.txt notamment.
Et ensuite, la visite continue avec Google et présente les modifications à apporter.
La simple suppression de l’interdiction ne fonctionne pas toujours, donc il sera préférable dans bien des cas d’afficher l’autorisation pour Google Bot :
User-Agent: Googlebot
Allow: .js
Allow: .css
Si on on donne dans le robots.txt une autorisation d’exploration, attention tout de même à ne pas laisser de consignes contradictoires :
Quelques spécificités sont à prendre en compte en fonction du CMS utilisé mais en suivant les recommandations de Google, en utilisant Search Console, on a tous les informations indispensables pour réussir ce petit caprice googlien…
On notera surtout l’importance d’envoyer l’information à Google que toutes les restrictions ont été corrigées et que l’exploration par les robots répond désormais aux consignes de Google. Il en est de même pour l’ensemble des erreurs constatées sur Search console :
Voilà encore une peu plus d’information pour Google, et comme à chaque fois, on le fait pour lui faire plaisir et surtout parce que la visibilité et le référencement naturel pourraient en dépendre. On a bien compris cette petite insinuation :
il est donc possible que le classement du site ne soit pas optimal
Bien que les LLM soient probabilistes et difficiles à influencer, plusieurs études montrent qu’il est…
Dans le monde numérique d'aujourd'hui, avoir une présence en ligne est essentiel pour toute entreprise.…
En tant que référenceuse chez Internet Communication, j'ai récemment vécu une expérience qui illustre parfaitement…
Chez Internet Communication, nous sommes ravis de vous annoncer la mise en vente d'un portefeuille…
Dans l'univers concurrentiel du web, chaque détail compte pour améliorer la visibilité de votre site…
, le texte de l'ancre doit être déscriptive Trois bonnes pratiques pour booster la visibilité…
This website uses cookies.