En ce qui concerne les stratégies on-page, il y a toujours eu des discussions sur la taille d’un site Web et son effet sur le classement. Nous avons également assisté à des changements d’algorithme en ce qui concerne le contenu fin et le contenu dupliqué. Nous avons remarqué que parfois, lors du lancement du nouveau site d’un client, le nombre de pages du site influençait son classement.
Un électricien local en est un exemple. La plupart des sites Web de ses concurrents étaient assez vieux, avec seulement quelques pages – dans l’ensemble minces. Nous avons créé son site avec 8 pages de contenu solide (sa femme est professeur d’anglais). Le site contenait des informations sur un chauffe-eau spécifique qu’ils vendaient. Elle a fait 1 000 pages de contenu ainsi qu’un post. Le site a été lancé sur une nouvelle URL et en 2 semaines environ, il était en page 1 pour la région, ainsi que pour la marque du chauffe-eau.
Dans ce test, nous vérifions si plus un site a de pages indexées, plus il peut être classé.
Trois sites ont été mis en place
Chaque site a une page qui était exactement la même, avec le mot-clé cible.
Un plan de site a été créé pour les trois sites.
Le site de contrôle a été indexé en premier et n’a indexé que 3 des 10 pages pendant les 7 jours de ce test, mais il est resté en première position.
Le site test de 100 pages a démarré en troisième position avec 5 pages indexées, mais est passé en deuxième position une fois que d’autres pages ont été indexées. Notez qu’il s’agissait de plus de pages que le site test de 5 pages. Le nombre de pages indexées par Google a également fluctué. Le dernier jour, 14 pages étaient indexées. Nous en avons soumis 15 à l’URL submitter de Google.
Le site de test de 5 pages semblait indexer toutes les pages dès le départ. Nous n’avons soumis que l’URL racine au début.
Donc, bien que le site de contrôle de 10 pages soit resté à la première place, le site de 100 pages avec plus de pages indexées a dépassé le plus petit site.
D’après ce test, il est préférable de faire les choses en grand. Toutes les pages ne seront pas indexées au rythme souhaité, mais au bout du compte, il est préférable d’avoir plus de pages.
Plus de pages = meilleur classement.
Dans cette vidéo, Clint discute de ce test et de ses résultats.
Test 74 – La quantité de pages indexées affecte-t-elle les classements ?
Il s’agit d’un petit test pour voir si les grands sites sont mieux classés que les petits. Et je me risquerais à dire que cela a probablement été testé dans le monde du blackhat et c’est pourquoi le concept de pages de masse est apparu, ou l’une des raisons pour lesquelles les pages de masse sont apparues. C’est aussi pourquoi tout le monde dit – oh, nous devrions faire plus de pages, vous avez besoin de plus de contenu, vous avez besoin de plus, vous avez besoin de plus, vous avez besoin de plus afin de vous classer pour Google.
Et mon argument ou contre-argument à cela a toujours été, que faire si votre taux de croissance dépasse votre taux de promotion ? Donc vous écrivez toutes ces choses formidables et merveilleuses, mais personne ne les connaît. Si personne ne le connaît, personne ne construit de liens vers lui, et personne ne construit de liens vers lui, il est plus difficile pour Google de le trouver, il est plus difficile pour Google de le trouver, il a moins de chance d’être classé.
A moins que vous ne cherchiez à utiliser un site de masse pour cibler ou identifier des mots-clés faciles à classer. Dans ce cas, il s’agit d’une toute autre boîte de Pandore qui aboutit à des choses comme les constructions de sites payants de masse au noir, et je dis au noir parce qu’elles sont contraires aux conditions de service, et pas nécessairement illégales ou pirates. En fait, ils ne sont pas illégaux et ne relèvent pas du piratage, mais ils sont contraires aux conditions d’utilisation de Google et, une fois identifiés, ils seront techniquement ou presque toujours considérés comme du pur spam et retirés de l’index.
Mais ce n’est pas tout, ils fonctionnent toujours et sont toujours de bons outils de test ou de recherche pour vous aider dans votre recherche de mots-clés. Il en va de même avec l’ancienne méthode des vidéos YouTube, et en particulier YouTube Live, et la raison pour laquelle beaucoup de ces logiciels YouTube Live sont apparus, et pourquoi YouTube Live n’a plus le pouvoir qu’il avait auparavant, à cause de ces logiciels YouTube Live qui permettaient aux gens de télécharger 3, 4, 5, 1000 vidéos à la fois, et de “poke for easy rankings”. Ce test va donc dans le même sens, dans la mesure où un site de 100 pages surclasse un site de 5 pages ou de 10 pages.
Dans ce cas, il y avait 3 sites utilisés, un de 10 pages, un de 5 pages et un de 100 pages. Sur chacun de ces sites, il y avait une page qui était exactement la même – optimisée pour le mot clé du test. Donc chaque page, une page sur chacun de ces sites 5, 10 et 100. Et la page sur le site qui avait 100 pages a gagné la journée. C’est là que ça devient un peu délicat. Ce que vous regardez à l’écran est le bon site à ce moment-là, qu’est-ce qui manque ? Quelqu’un peut-il me dire ce qu’il manque ? Et la clé de la question est juste ici. Chaque site a une page qui est exactement la même. Donc si vous pensez au “contenu dupliqué”, plus précisément au contenu syndiqué, le site qui a été indexé en premier ou la page qui a été indexée en premier pour ce terme. Et tous ces éléments sont exactement les mêmes, et l’algorithme de Google a appris à trouver le contenu dupliqué. S’ils sont tous identiques, est-ce que ce site est devenu celui qui a été classé en premier parce qu’il a été indexé en premier, parce que chacun d’entre eux a exactement le même contenu. Exactement le même. Donc il n’y a pas de référencement canonique ? Où sont-elles placées avec le canonical qui est là ? Il n’y en a pas. Dans quel ordre ont-ils été indexés ? Il n’y en a pas. Et est-ce que cet ordre d’indexation se reflète dans le classement ? Ce n’est pas là.
Il est donc un peu difficile de dire qu’un site de 5 pages est surclassé par un site de 100 pages, en se basant uniquement sur son nombre de pages. C’est donc quelque chose qui doit absolument être retesté. Il doit être fait de sorte que chaque site a exactement la même page, ce qui n’est pas le cas. Nous éliminons donc cela, puis nous définissons les canoniques, et nous trouvons un moyen de soumettre ces trois pages de test, la page que nous essayons de classer, à l’index exactement au même moment, en utilisant exactement les mêmes outils, puis nous surveillons quand elles sont indexées, quand elles sont classées, et si leur ordre de classement change en fonction du temps qu’elles ont été indexées. Nous aurons alors une réponse plus claire à l’idée qu’un site de 100 pages surclasse un site de 5 pages.