Vous êtes-vous déjà demandé pourquoi certains sites se classent en haut des résultats de Google alors qu’ils ne sont pas optimisés pour les moteurs de recherche ? Ou même encore lorsqu’ils n’ont que très peu de backlinks, c'est-à-dire des liens entrants suite à des campagne de netlinking ?
Un certains nombre de porteurs de projet nous ont posé cette question au cours de ces derniers mois (l’idée était qu’en supprimant du devis toute la partie en rapport avec l’optimisation, il y aurait une baisse du prix global). Manifestement, il arrive encore qu’un futur propriétaire de site ne comprenne pas la nécessité d’une bonne optimisation et que ce n’est pas ici qu’il faut chercher à faire des économies. Nous avons donc pensé à écrire un article afin d’expliquer pourquoi cela arrive, et par extension, pourquoi cela ne vous arrivera pas. Et pourquoi pas allez-vous nous répondre ?! Parce que 7 raisons expliquent comment un site Internet non optimisé peut se retrouver dans les meilleurs résultats de Google, et qu’il est impossible à un site nouvellement mis en ligne ou âgé de moins de quelques années d’être dans ces situations.
Une partie des algorithmes de Google garde un œil sur le taux de clics. Il le calcule comme un pourcentage, reflétant le nombre de clics que vous recevez à partir du nombre total d’internautes cherchant la phrase spécifique (= la requête dans noter jargon) pour laquelle votre site est classé. Plus le pourcentage est grand, plus votre entrée est attrayante en comparaison avec celles de vos concurrents. Et si votre taux de clics est plus haut que celui de tout le monde, Google commencera doucement à vous faire grimper ses pages de résultats étant donné que ce facteur d’algorithme l’informe que ses utilisateurs préfèrent votre entrée aux autres.
Considérer le taux de clics n’est cependant pas suffisant, vu que des experts SEO pourraient créer des étiquettes de titres trompeuses et des meta descriptions pour améliorer les résultats de leurs clients. Pour cette raison, Google regarde également votre taux de rebond. Il évalue le nombre de visiteurs quittant votre page en cliquant sur le bouton Précédent de leur navigateur web, pour retourner sur la page de résultats de recherches. Si Google envoie 1 000 personnes sur une de vos pages web et que chacune d’entre elles cliquent sur le bouton Précédent après seulement quelques secondes sur la page considérée, cela l’informe que votre page n’est pas pertinente sur la requête tapée, et les mots clés lui étant associés.
Il existe des sites Internet qui ont un bon positionnement sans être optimisés, grâce à un taux de clics haut et un taux de rebond bas. Il faut donc avoir un contenu rédactionnel et des produits très bien présentés et positionnés : textes, explications, détails, photos, prix, commentaires, etc. Et ceci aide à maintenir leur positionnement.
Si vous souhaitez connaître votre taux de clics, connectez-vous sur Webmaster Tools et cliquez sur le profil de votre site. Si vous n’avez pas de profil pour votre site, cela signifie que vous devez ajouter votre site sur Webmaster Tools et attendre quelques jours. Une fois que vous pouvez voir votre site sur Webmaster Tools, cliquez sur l’option de navigation trafic des recherches et cliquez ensuite sur requêtes de recherche.
Un des grands facteurs qui font que certains sites se classent bien est leur âge, et par extension leur date de mise en ligne (ou de la mise en ligne de la page bien référencée). La plupart des sites qui sont en haut des résultats de recherches sont vieux d’au moins quelques années, et le plus souvent bien avant que Google ne modifie certaines règles de ses algorithmes qui planteraient le vôtre.
Bien entendu, une grande partie de ces sites plus anciens ont plus de liens retours et de contenus comme ils sont là depuis quelques temps, mais pas tous. Certains n’en ont aucun, car ils ont utilisé des règles de black hat pour leur référencement, sauf que le moteur de recherches ne les sanctionnent pas, car les pages considérées sont antérieures de plusieurs années avant que ne soient créées ces infractions. Vous avez ici un grand danger si vous ne passez pas par un spécialiste pour vous référencer ou pour créer votre site web : faire un clone du site bien positionné, et vous apercevoir au bout de 3 mois que vous êtes sanctionné. Mais pas l’autre site ! Mais si tout est identique, surtout si vous avez fait mieux sur certains points que votre concurrent, comment une telle discrimination est possible ? L’âge du site et l’ancienneté des pages, comparée à la date de mise en ligne des règles de Google qui plombent le vôtre, expliquent cela.
Vous ne pouvez pas faire grand-chose d’autre que d’attendre que le temps passe... Plus votre site sera âgé, plus vous recevrez du trafic de recherches, en supposant bien entendu que vous essayez de l’améliorer continuellement, et qu’il n’entre pas en infraction avec de nouvelles règles.
Google ne regarde pas simplement le nombre de liens entrants qu’un site possède, il regarde également la pertinence et l’autorité. Bon nombre de ces sites non optimisés qui se classent bien ont quelques liens entrants de bonne qualité qui envoient vers les bonnes pages internes. Par exemple, si vous avez seulement quelques liens, mais qu’ils viennent d’extensions .edu et .gouv, votre site se classera extrêmement mieux que des .com.
En plus d’avoir les bons liens de retours, ces sites ont également un texte d’ancrage pour ces liens qui fait mouche. La plupart des référenceurs amateurs pensent que vous avez besoin de liens de texte d’ancrage riches afin d’avoir un bon positionnement, mais en réalité ce n’est pas le cas. Google est capable de regarder la page web qui redirige l’utilisateur vers vous et d’analyser le texte qui entoure le lien, tout comme le texte de la page. Cela aide Google à déterminer si le lien est pertinent à votre site et ce que votre positionnement devrait éventuellement être.
Même si vous n’avez pas le meilleur SEO ou 1 tonne de liens retours de qualité, il vous est possible d’obtenir un bon classement pour une perspective générale du site si vous recoupez vos pages.
Et c’est important non seulement d’une perspective en rapport avec la navigation ou son aide, mais d’une perspective de contenu adéquat. Si vous pouvez ajouter des liens internes dans votre contenu à travers votre site et recouper vos pages, vous verrez que le positionnement de toutes ces pages augmentera. D’un autre côté, si vous ne recoupez pas le contenu de vos pages, vous verrez que certaines de vos pages web se classeront très bien, alors que d’autres non. La raison est que vous ne distribuez pas de jus de liens et d’autorité sur la totalité de votre site.
Depuis sa mise à jour Panda, Google est capable de déterminer la qualité du contenu d’un site web. Par exemple, il peut déterminer si un site a trop peu de contenu ou s’il a du duplicate content externe voire interne, ou si son contenu pourtant unique ne tourne pas toujours autour de la même chose (ce qui est pénalisé comme le serait un site de médiocre qualité), ce qui permet une bien meilleure analyse de la qualité du contenu.
Bon nombre de ces anciens sites bien classés ont un contenu qu’une qualité excellente et qui reçoivent encore beaucoup de visites pour l’information qu’ils offrent. Vous ne pensez peut-être pas que c’est le cas, mais Google oui.
Pourquoi ?
Parce que Google ne regarde pas simplement le contenu présent, il regarde le contenu d’un site Internet et le compare à celui d’autres sites de la même thématique. Donc si vous avez une qualité meilleure de contenus que celle de tous vos concurrents, vous avez beaucoup plus de chances d’avoir un meilleur référencement à long terme.
Un merveilleux aspect du positionnement pour certains mots-clés est qu’ils n’ont pas à affronter une compétition très intense. Et certains de ces mots-clés ne sont pas recherchés très souvent. Ces pages ne sont pas mises à jour (crawlées) par Google aussi souvent que les termes les plus compétitifs. Pourquoi ? Parce qu’un nombre plus important d’utilisateurs s’intéressent à ces termes.
Si vous étiez à la place de Google, n’utiliseriez-vous pas vos ressources pour vous assurer que les termes et les pages de résultats les plus populaires soient mis à jour plus fréquemment que les expressions qui ne sont pas recherchées très souvent ?
Que devriez-vous faire si vous vouliez être très bien positionné pour un mot-clé ? Construire 1 tonne de backlinks pertinents et écrire beaucoup de contenus de bonne qualité ? C’est que beaucoup de webmasters augmentent leur nombre de liens un peu trop rapidement… si rapidement que cela ne semble pas naturel. Or Google est assez intelligent pour mesurer cet aspect naturel. C’est pour cette raison que vous voyez beaucoup de sites plus anciens se classer très bien comme ils croissent à un rythme naturel, à l’inverse d’un site pour lequel cela semble feint.
Là aussi un grand danger vous menace : puisque vous n’aurez pas de si tôt une qualité de netlinking équivalente en terme de volume, et si vous progressez chaque mois, vos concurrents aussi. Donc chaque mois c’est retour à la case départ, et vous pourriez vouloir accélérer les événements en demandant au spécialiste en référencement d’aller plus vite. Donc vous en demandez davantage et… pénalisé pour croissance exponentielle non naturelle !
Il existe de nombreuses raisons pour lesquelles des sites qui ne semblent pas bien optimisés se classent bien. Les 7 que l’agence web a citées ci-dessus sont les raisons principales que nous avons pu observer au fil des ans. La prochaine fois que vous essaierez de comprendre pourquoi un site en particulier possède un bon positionnement, il est probable que ce soit grâce à une ou plusieurs des raisons de cette liste.
En tant que propriétaire de site Internet, vous ne devriez pas trop vous soucier de vos concurrents, concentrez-vous plutôt sur son amélioration. A plus long terme, l’entreprise avec le meilleur produit ou service a tendance à gagner. Quoi qu’il en soit, pour un bon référencement il existe un mot d’ordre : patience. A vouloir trop vite des résultats, le risque de la pénalité reste d’actualité.