SEO Lightning Round 2 est une vidéo de 2 minutes et 11 secondes que Google a récemment publiée, au cours de laquelle environ 4 questions ont été posées (et répondues).
À ~1 minute, 22 secondes dans la vidéo, l’hôte John Mueller (Google Search Advocate) lit et répond à une question :
“Jacco demande si le fait d’avoir des flux RSS est problématique pour le crawling, puisque Googlebot les récupère si souvent.”
Le libellé complet de la question de Jacco était le suivant :
“En regardant certains fichiers journaux, je vois qu’environ 25 % du budget d’exploration de Google va aux URL des flux RSS qui se trouvent en tête de chaque page. Est-il utile de supprimer les métarègles de la section d’en-tête ?”
Vidéo en attente ci-dessous :
En bref, la réponse est non, ils ne posent aucun problème. Les systèmes de Google équilibrent automatiquement l’exploration d’un site Web.
Cela signifie parfois que certaines pages doivent être explorées plus souvent, mais cela ne se produit qu’une fois que nous avons déjà examiné les pages importantes.
Ainsi, les URL des flux RSS ne grèvent généralement pas trop votre budget d’exploration.
Et c’est logique : Les flux RSS sont un composant intégré aux sites depuis des années et des années. Google a probablement déjà compris comment leur allouer un budget d’exploration. De plus, les flux RSS sont, à mon avis, comme une liste des derniers articles de blog du site, ils peuvent donc servir de plan du site pour les moteurs de recherche.
Source : Chaîne YouTube Google Search Central