1:30 – Le cours de cette conversation avec John a été pénible. C’était comme si John ne pouvait pas saisir le concept de l’existence des “tags”.
Sa seule recommandation était de poster dans les forums pour webmasters pour voir si quelqu’un d’autre pouvait fournir des informations.
Il a supposé que Googlebot trouvait simplement les pages de balises avant l’article de blog lui-même à partir d’autres pages du site.
5:30 – John répond que ce n’est pas un signe que quelque chose ne va pas, mais simplement une question de fonctionnement du système de Google qui crée cette condition.
7:30 – John a déclaré que la mauvaise qualité de la traduction des pages pourrait affecter la qualité globale du site dans son ensemble. Cet effet pourrait se traduire par une baisse du classement général.
10:50 – John a déclaré qu’il n’y a pas d’aspects individuels du contenu qu’il pourrait citer comme des facteurs de qualité qui sont pris en combinaison pour déterminer la qualité. Il a recommandé de lire un article du blogue de Google sur les mises à jour de base et sur ce que l’algorithme tente de faire pour mieux déterminer la qualité.
18:30 – John a déclaré que Googlebot pourrait suivre les liens créés par les outils de contenu dynamique. Cependant, il a déclaré qu’il ne déclenchera pas de contenu basé sur l’emplacement et les dialogues qui conduisent ce type de contenu sont ignorés.
20:30 – La question portait sur les pages qui reçoivent des liens et du trafic d’autres sites Web. Cependant, la personne qui a posé la question ne voulait pas que Google les explore pour une raison quelconque et qu’elles soient redirigées vers une autre page. Je ne vois pas de raison pratique pour laquelle vous voudriez faire cela.
John a déclaré qu’il pensait que cette pratique constituait une violation “limite” des conditions de Google, mais pas des directives. Il a suggéré qu’il serait préférable d’utiliser rel=canonical pour identifier les meilleures pages de votre site en vue de leur indexation pour ce sujet.
24:05 – John dit que s’il est dans le HTML et simplement caché, Google le prendra en compte et l’utilisera pour l’indexation.
Il a cité comment un message d’erreur qui avait été caché dans le HTML, mais qui était indexable, a eu pour résultat que les pages ont été rejetées de l’index.
Il a déclaré que si le texte caché concerne le contenu de la page, il ne sera probablement pas considéré comme une pénalité.
28:30 – John indique que le géociblage pourrait causer un problème avec le site de l’auteur de la question. Il a également déclaré que les algorithmes de Google News pourraient évaluer son site différemment et que cela pourrait causer le problème dont il se plaint.
De mon point de vue, Google Actualités est fortement tributaire du temps et de la fraîcheur, et il n’est donc pas anormal de voir un nouveau contenu (la copie) prendre le pas sur un contenu plus ancien (l’original).
33:40 – John a déclaré qu’il n’est pas utilisé pour les sites Google News et que son utilisation est limitée en fonction des conditions. Il a déclaré que son utilisation déclencherait un crawl mais que pour l’indexation, il n’y aurait pas d’augmentation.
Il a poursuivi en disant qu’il est plus que probable que vous ne recevrez pas de pénalité pour avoir utilisé l’API sans le schéma nécessaire.
36:15 – John résume que Top Stories est une fonction de recherche organique qui est sélectionnée en fonction des sites, du nombre d’articles, etc. Il a également suggéré que la migration en conjonction avec l’abandon d’AMP par les webmasters peut avoir été un changement suffisant pour déclencher la baisse des Top Stories en raison du manque de signaux de qualité sur le nouveau domaine.
42:04 – John a demandé un exemple de ceci afin d’identifier ce qui se passe. Il a dit que vous pouviez lui en envoyer via Twitter.
42:41 – John a déclaré que selon le volume des changements, Google peut prendre une longue période de temps pour mettre à jour son score de qualité. Il s’attend à ce que ce délai soit mesuré en mois plutôt qu’en jours. Pour cette raison, il recommande de faire tous les changements en une seule fois.
45:34 – John dit qu’ils regarderaient les descriptions dupliquées comme des doublons pour les variations, cependant, ils n’indexeraient pas tous les différents types de variables. Ils en sélectionneraient une ou deux et n’indexeraient que celles-ci. Il a dit que c’est bien d’avoir des parties des descriptions dupliquées mais que les caractéristiques uniques entre les variations devraient être notées dans la description pour une meilleure probabilité de classement.
48:25 – John a déclaré qu’elles n’ont pas de score E.A.T. et que tous les messages en relation avec ces pages disparaîtront après que les pages soient noindexées. Il a dit qu’il n’y aurait un problème que si l’auteur était populaire et que ces pages pouvaient obtenir du trafic à partir de recherches sur le nom de l’auteur.
50:35 – John a indiqué que l’une ou l’autre méthode est une mise en œuvre acceptable et qu’il s’agit essentiellement de liens internes entre les pages, donc en avoir deux ou plusieurs est acceptable pour l’exploration. Il dit que les liens vers plusieurs pages par rapport aux pages suivantes/précédentes pourraient indiquer la priorité des pages dans la pagination. Il a déclaré que les pages de premier niveau sont davantage explorées que les pages de rang inférieur dans la pagination. Il a estimé que 90% de l’exploration se ferait sur la première page de l’archive.
55:30 – Il a déclaré qu’il pense que les données ne proviennent que des utilisateurs de Chrome et, même dans ce cas, seulement d’un sous-ensemble de ces utilisateurs. Il a admis qu’il n’était pas au courant de tous les détails sur la façon dont ces données sont collectées et rapportées dans les outils.