Quand vous cliquez sur un résultat de recherches depuis Google, vous êtes redirigé(e) sur une page web dont la promesse est vous apporter une réponse ou une information. Le classement des pages dans les résultats du moteur de recherches correspond à une estimation de la satisfaction que vous apportera la page considérée. Cette pertinence est estimée par un score : chaque page se voit attribuer un score par les algorithmes de Google. Ce score définit votre position dans les résultats de recherches. Voilà comment fonctionne le référencement naturel.
Un spécialiste SEO veut faire correspondre 2 objectifs :
Faire comprendre au moteur de recherche que le site est digne de confiance et riche en informations sur tels sujets d’une thématique particulière
Apporter de l’information utile et fiable aux internautes. Autrement dit, aller jusqu’au bout de la promesse faite à Google.
Un seo manager arrive assez facilement au premier objectif, puisque la solution est technique. En revanche marier les 2 prétentions exige une certaine expertise dépassant simplement la programmation. Votre prestataire doit être capable de rédiger pour vos lecteurs, et avoir de l’empathie pour savoir ce qui est attendu par les internautes. Ce qui signifie être capable de qualifier le trafic et pouvoir créer plusieurs pages totalement différentes sur un même sujet pour correspondre à toutes les attentes.
Le score mesure ces promesses, et votre référencement en dépend. Notez que si l’internaute ne retrouve pas cette promesse, Google mesure les signes d’insatisfactions dans son comportement en ligne, et revoit la note.
L’une des mesures caractérisant le score initial est la fréquence des mots dans un texte (et dans chaque phrase). Pour ce faire, son algorithme utilise ce qu’un spécialiste seo nomme les modèles de phrases Ngrams. Vous allez comprendre son importance, ainsi que le nombre de fois qu’un mot clé doit être employé dans un rédactionnel optimisé.
Devis pour améliorer son référencement naturel
En 2010 Google a officiellement lancé un outil permettant de suivre l’évolution de la fréquence de 1 ou plusieurs mots dans une langue. Cette technique seo est un héritage d’un autre projet de ce géant du numérique : grâce à son service Google Books, l’évolution linguistique peut se mesurer. Ceci est possible depuis la transposition de supports papiers en supports numériques.
Un livre ne possède pas de bourrage de mots clés, il n’en répète pas tous les x mots un principal ni un secondaire. L’auteur écrit pour le lecteur, afin que son texte soit lu de façon fluide, compréhensible et qu’il soit 100% utile. Si c’est juste parler d’un sujet pour faire du poids et avoir des mots clés pour le référencement naturel, ça ne sert plus à rien en 2019. Quand vous donnez à un rédacteur freelance des textes à écrire, représentez-vous la ligne éditoriale comme si vous faisiez écrire un livre. Ce peut être un livre blanc par exemple.
Les modèles de langues impliquent la probabilité d’observer une séquence de mots dans une rédaction pour le web. Le Ngram est la mesure d’une séquence de « n » mots. La qualité d’une page dépend donc de la proximité ou de l’éloignement de l’observation statistique faite par Google depuis les livres publiés dans une langue considérée.
L’idée est qu’un livre traitant d’un sujet spécifique comporte des informations importantes pour le lecteur. Ces éléments sont des verbes, des mots clés, des adjectifs, etc. L’algorithme de Google calcule ces statistiques. Je vais simplifier à l’extrême, mais retenez qu’il sait qu’un texte d’une longueur de x mots comporte en moyenne y fois ce mot clé, z fois tel autre, et ainsi de suite. Et Google mesure tous les sujets dans toutes les langues. Autrement dit, il n’existe aucune exception.
Un spécialiste SEO ne doit donc pas optimiser le contenu des pages ni concevoir la stratégie de nouveaux contenus en s'appuyant sur l’intégration de tas de mots clés, ni en les mettant en gras. Le lecteur ne cherche pas à retrouver sa requête dans sa lecture, mais des informations se rapportant à ce qu’il cherche. Il faut mettre en avant des caractéristiques essentielles de l’information et pas autre chose. Il doit également affiner la récurrence comme s’il présentait un chapitre de livre à des lecteurs.
Dans l’article Quelle expertise SEO pour le succès de votre activité en ligne, vous verrez qu’il ne faut pas choisir n’importe quel mot clé. Les plus concurrentiels ne sont pas toujours les meilleurs pour votre activité. Si l’intention de l’utilisateur véhiculée par le mot clé ne correspond pas à votre objectif d’entreprise, le spécialiste SEO ne doit pas l’utiliser. Derrière une sémantique, il existe un profil de prospect, dont le critère du budget. En ne cherchant que les statistiques, la stratégie passe à côté. La capacité à créer cette stratégie de référencement naturelle est de l’expertise. C’est ce type de prestataire qu’il vous faut trouver.
Que dit le brevet de l’algorithme déterminant la qualité d’une page web, d’après la fréquence des mots ? Tout d’abord, il détermine les différentes séries de mots sur le site global et dans chaque page en particulier. Pour chaque page et chaque série, il en mesure la fréquence d’utilisation. Il confère un score en fonction du résultat qui se base sur l’écart statistique.
Je rajoute que ces statistiques lui ont permis de créer un modèle. Il compare chaque site et chaque page ayant un scoring identique sur le même sujet, ainsi que les mots clés relatifs, à son modèle étalon. Les sites de façon globale en premier lieu, et les pages web en second lieu, sont classés avec un score final. Il peut évoluer. Ce classement est visible dans les résultats de recherches dans une position plus ou moins haute.
J’ai vérifié qu’il ne sert à rien de mettre des tas de mots clés dans les pages pour être bien référencé sur Google. J’applique cette stratégie à tous mes clients depuis 2017, et je les monte dans les meilleurs résultats de façon pérenne. Sans parler des conversions des visites en leads, mais c’est la cerise sur le gâteau.
2017 marque un tournant dans le référencement naturel : la qualité de l’information a pris le pas sur beaucoup d’autres critères SEO. Nous sommes aujourd’hui en juillet 2019, et voilà 1 mois que ce tropisme s’est accentué. Le web s’est en effet affolé en juin, personne ne comprenais vraiment ce qui se passait. Les spécialistes SEO voyaient bien que ça bougeait, mais nous étions bien incapables de déterminer avec précision la nature du changement. Il m’a fallu un mois pour comprendre l’algorithme, et je n’y serais pas parvenu sans avoir trouvé le brevet adéquat ! Je peux vous annoncer que Panda est la cause du mouvement dans les SERPs.
Savez-vous qui est le contributeur de l’algorithme du score selon la fréquence d’utilisation des mots (mots clés et autres) ? Navneet Panda, la personne qui a donné son nom à la mise à jour de Google Panda. Hé oui, le changement dans les algorithmes de référencement de juin 2019 ont tout à voir avec Panda ! Voilà des années que l’on n’avait pas prononcé ce nom d’algorithme. La question avait été posée à John Mueller en juin 2019, comme quoi certains spécialistes seo américains flairaient déjà le rapport. Il avait répondu ce que je simplifie ainsi : « peut-être que oui, peut-être que non ». Vous avez maintenant la réponse.
Un corps de pages est divisé en Ngrams ; ils s’utilisent pour créer des modèles de langage ou des modèles de phrases à comparer avec d'autres pages.
Ces modèles aident à déterminer la qualité des sites. Sachant que Google fait une différence entre les sites Internet moins récents, et les nouveaux acteurs digitaux. Plus le site est récent, plus il est impacté par cet algorithme, parce que toutes les pages doivent être notées, dont passées à l’algorithme. Alors que les anciens sites ont déjà un score. Il est actualisé, mais pas tous au même rythme.
Ce qui signifie que vous pouvez avoir 2 sites, un ancien et un nouvellement mis en ligne, mais qu’ils ne seront pas référencés de la même manière, malgré la fraîcheur du dernier. Un bon trafic organique se crée avec de la qualité dans les pages. Un nouveau site de petites annonces dont le contenu de certeianes serait de 20 mots par exemple, ne verraient pas ces pages ressortir dans les résultats.
J’ai vérifié avec un site d’annonces mis nouvellement en ligne en 2019 : les catégories, les sous catégories et les annonces ne sont indexées qu’à partir d'un certain seuil en termes de contenu informatif et de longueur. La personne avec qui j'échangeais sur ce sujet me certifiait que ce n'était pas la cause. Sauf qu'elle n'était pas une search expert et que les annonces non indexées étaient évidemment de piètre qualité, et c'étaient surtout les siennes ;-) Cette personne administrait un autre site dont ses annonces se référençaient mieux, sauf qu'il avait plus de 8 ans, contre 2 mois je crois pour le plus récent. Fatalement, les 2 sites ne peuvent pas répondre de la même manière comme vous le verrez ci-dessous.
Le brevet indique que les scores de qualité d’un site Internet impacte le classement des pages dudit site. Et le brevet de préciser que « pour d’autres raisons, les scores de qualité de base des sites ne sont pas disponibles pour tous les sites ». En fait, pour des questions de ressources. Comme quoi même pour les plus grands, elles ne sont pas infinies. C’est ce que je vous disais plus haut, les nouveaux sont systématiquement concernés, pas nécessairement les moins récents.
Le brevet a été déposé en 2013, il a fallu 4 ans pour l’affiner. Si son contenu vous intéresse et que vous maîtrisez bien l’anglais administratif, vous avez tout ici : http://patft.uspto.gov/netacgi/nph-Parser?Sect1=PTO1&Sect2=HITOFF&d=PALL&p=1&u=%2Fnetahtml%2FPTO%2Fsrchnum.htm&r=1&f=G&l=50&s1=9,767,157.PN.&OS=PN/9,767,157&RS=PN/9,767,157
Il a fallu attendre juin 2019 pour une autre étape majeure.
La terminologie search expert représente un prestataire contribuant à l’amélioration significative de la performance du canal d'acquisition de votre trafic et des conversions, que ce soit en SEO ou en SEA. Ce qui signifie être capable de gérer le ciblage, le contenu et le parcours des visiteurs sur votre site Internet.
En plus de mesurer la fréquence d’emploi des mots et d’utilisation des mots clés sur les textes d’un site considéré, ce spécialiste sait que la technique des Ngrams est également valable pour le texte d'ancrage contenant des liens pointant vers les pages du site.
Attention, la qualité ne consiste pas à créer un lien interne sur une phrase contenant un mot clé, ni sur un mot clé tout court : votre spécialiste seo doit construire un modèle de phrase cohérent, dont les mots constitutifs du lien d’ancrage respectent la fréquence moyenne des Ngrams du site.
Je n’entre pas dans le détail, mais retenez que la moyenne correspond au nombre de redirections divisé par le nombre de pages du site.
Est-ce que ça marche ? Quand je travaille un référencement, je le fais exclusivement On Site avec 3 techniques majeures de seo, et sans netlinking. Alors que son référencement part de zéro, il monte de pages en pages pour arriver à la première sur des mots clés. D’autres suivent progressivement. Puis les premières pages deviennent des Top 3, les deuxièmes pages deviennent des 1ères pages, et ainsi de suite. Bref, ça marche.
Et le résultat est pérenne, avec seulement 8 textes par mois maximum, et peu importe la structure de navigation du site (sauf quand elle est en infraction avec les règles de Google, auquel cas une refonte du site préalable est nécessaire).
Les 3 techniques seo majeures du search expert que je mets en œuvre sont :
Privilégier l’information et non la communication
Choisir la qualité de l’information signifie le rendre utile à la compréhension d’un sujet, ou permettre un événement (un commentaire, un achat, une demande de devis, un contact, etc.). Définir une charte éditoriale est obligatoire.
Les silos sémantiques et non un blog
Un blog n’apporte pas la pérennité du référencement et n’apporte que très peu de conversions. Il nécessite sans cesse de l’alimenter pour porter ses fruits. Contrairement au travail en silo sémantique qui est extrêmement puissant.
Le maillage interne
Il doit respecter des règles précises.
Bien sûr, mal mener l’une de ces étapes génère l’échec de la campagne de référencement. Et vous aurez de la difficulté à convertir les visites.
Pour comprendre ce qui s’est passé en juin 2019, il faut avoir en tête la trame complète. Remarque à propos du mois de juin : un spécialiste seo ne peut plus se demander pourquoi c’est vers l’été que la majorité des modifications majeures sont apportées au vu de cette date !
Je vous résume l’évolution de Panda :
Juin 2011
La qualité des pages est prise en charge par l’algorithme.
Septembre 2012
Google peut identifier les requêtes et les ressources de navigation.
Mai 2013
Google peut classer les pages d’un site Internet en fonction des évaluations de leur qualité.
Mai 2015
Panda permet de calculer le niveau de qualité d'un site entier.
Et devinez quoi : Navneet Panda en est toujours l’auteur !
Juin 2015
Il est possible de repérer un site de qualité médiocre et de lui attribuer un score adéquat.
Septembre 2017
Utilisation des modèles de phrases Ngram pour générer des scores de qualité d’un site Internet.
Juillet 2018
Apparition des scores de qualité pour les requêtes.
Juin 2019
Nouveauté : classement des pages en fonction du score sur des critères approfondis quant à la qualité.
Que s’est-il passé vraiment en juin 2019 ? Tout le monde s’affolait et personne n’était capable d’apporter des réponses fiables. Il m’a quand même fallu 1 mois pour trouver les bonnes réponses (même si je n’ai pas cherché tous les jours non plus…). Mais au moins, je les ai, et du coup, vous aussi dans un instant.
J’avais anticipé pour mes clients cette mise en œuvre de règles dans Google, si bien qu’ils ont gagné en visibilité. Voici ce qui est vérifié dans le critère de qualité d’une page, ce qui influence le référencement naturel :
L’information prime davantage, mais le texte est-il publicitaire ou à visée de propagande ?
Vérification de la source de publication.
Vérification liée à l’hébergement (le propriétaire possède-t-il plusieurs sites sur le serveur, chez ce même hébergeur, chez d’autres hébergeurs, etc.).
La motivation réelle de l’auteur est importante
L’algorithme vérifie pour déterminer le score, si le contenu rédactionnel est une vraie information ou s’il existe un lien commercial avec l’auteur. Pour illustrer, du contenu sur les OGM dont l’auteur a un intérêt commercial ou un lien quelconque avec une firme fabricant des pesticides, aura un score moindre parce qu’il ne peut pas être objectif. Pareillement, un site d'un particulier contre le cancer peut ne pas être objectif.
L’influence des valeurs de l’auteur sur la qualité de l’information
L’algorithme vérifie si des références viennent appuyer le discours.
Si le sujet est sensible, il est vérifié que les arguments de toutes les parties soient présents, s’il manque de l’information, si la ligne éditoriale est émotive ou objective, si le netlinking qui pointent vers les pages considérés (et les lien sortant aussi !) ne mettraient pas en avant une manipulation ou une communication à but de propagande, etc.