Avec tous les changements récents apportés aux algorithmes Google, les stratégies de référencement classiques comme la recherche et le ciblage de mots clés, l’optimisation du balisage de pages, n’ont pas le même impact qu’il y a quelques années. Et pour apporter une petite distraction à l’expert qui serait tenté de capitaliser son activité sur son expérience passée, il se trouve maintenant qu’une mise à jour dans un algorithme touche différemment les sites web selon leur thématique. Pour illustrer, un site de rencontres échangistes ou de vidéos pour adultes aura toujours plus de difficultés qu’une plateforme de mise en relation traditionnelle.
C’est pourquoi un professionnel du SEO :
Il est urgent pour garder une expertise en matière de ranking, de comprendre le plus vite possible la direction que prend Google, et de saisir la nature des modifications vers les bonnes pratiques, les best practices selon le jargon de l’activité.
Le paysage du SEO évolue profondément chaque année. Bien sûr, des facteurs traditionnels de classement des mots clés restent d’actualités, mais l’expert doit s’impliquer davantage sur l'expérience globale d'un utilisateur du site Internet considéré.
Le premier algorithme vraiment sérieux est apparu en novembre 2003 ! Il a mis fin aux tactiques spammeuses de la décennie précédente, comme le bourrage de mots clés, l’utilisation de textes et de liens internes cachés.
Il faut attendre septembre 2005 pour voir le second algorithme SEO. Il s’attarde sur le netlinking : Jagger. Il est lancé en 3 phases, jusqu’en novembre (1 par mois). Ses cibles sont :
Plusieurs changements dans les méthodes pour indexer un site Internet apparaissent en 2009, notamment avec Vince et Caféine.
D’avril à mai 2010, la mise à jour de MayDay constitue un changement majeur dans l’évaluation des sites. Les requêtes à longue traîne sont prises en compte.
2011 est une année charnière pour le classement d’un site Internet. C’est le début des cheveux blancs pour les experts SEO avec 2 arrivées majeures : Panda et Pingouin. Panda arrive en février 2011 et évolue tous les mois jusqu’au mois de janvier 2012. Avec toutefois une pause en novembre où une mise à jour d'un autre algorithme de positionnement prend place. Ce dernier favorise les informations récentes et récurrentes. Ces changements affectent alors 35% des recherches, c’est énorme !
2011 est le début de la mise en avant de la qualité. Google cherche davantage à se rapprocher de l’intérêt de l’internaute, de l’expérience utilisateur.
En février 2012, l'emplacement géographique et/ ou l'adresse IP sont prises en compte. L’importance de la pertinence locale s’impose dans le référencement naturel.
De février à avril 2012, de nouvelles modifications à Panda sont implémentées. Pingouin révolutionne les techniques de SEO : je crois que je n’ai jamais autant entendu parlé de pénalités ! C’est la chasse aux sur-optimisations. Les spécialistes en référencement commencent à comprendre que Google souhaite favoriser les résultats naturels dans la sphère organique.
Jusqu’en mai 2013 inclus, Panda et Pingouin évoluent. A noter qu’en septembre 2012, les noms de domaines constitués de mots clés sont sanctionnés.
Juin 2013 est le début des gros soucis pour les sites dits pour adultes. Tout le monde entend alors parler de Payday Loan.
Présenter un projet au search expert
Depuis 2018, je parle de plus en plus souvent de l’importance de la recherche vocale - Smartphones et Assistants Vocaux -, et des conséquences sur le référencement. Mais saviez-vous que Google a commencé à gérer le sujet dès août 2013 avec Hummingbird (Colibri en français) ? Google avait besoin d'un moyen de mieux comprendre et d’afficher les résultats les plus pertinents à des requêtes plus complexes, dues à la croissance de la recherche conversationnelle (= la recherche vocale). Selon Google, le nouvel algorithme a touché environ 90% des recherches dans le monde.
De octobre 2013 à juin 2014, chaque freelance en SEO peut noter des variations dans le classement des sites Internet. Et pour cause, Payday Loan, Pingouin et Panda sont souvent mis à jour ! L’objectif de la firme de Moutain View est bien évidemment de mettre en valeur la qualité en pénalisant l’opposé, ainsi que les tentatives de manipulations des algorithmes.
Juillet 2014 voit arriver à grands battements d’ailes Pigeon. Il concerne la recherche locale les paramètres de classement des distances et des emplacements.
A partir de septembre 2014, Google accentue sévèrement la chasse contre les contenus de qualité médiocre. Panda et Pingouin sont ravageurs.
Puis plus rien jusqu’en 2015, année cardinale en matière de référencement naturel.
Avril 2015 est un mois important pour le référencement naturel dans les résultats de recherches sur Smartphones et Tablettes. La sphère SEO appelle cela un Mobilegeddon :) Les sites responsives bénéficient d’un meilleur classement.
A partir de mai 2015, la qualité est de nouveau le cheval de bataille de Google. Les experts parlent d’un nom de code : Phantom Update.
Octobre 2015 est crucial pour le ranking des sites web : RankBrain est officiellement lancé (les mises à jour ont commencé en avril ceci dit, mais uniquement 15% des recherches sont impactées). Il s’agit d’un algorithme d’apprentissage automatique, les résultats d’une recherche considérée, pour donner aux utilisateurs la meilleure réponse possible. La quasi-totalité des requêtes mondiales sont impactées. Cet algorithme est considéré comme l’un des 3 les plus importants depuis 2003.
Confirmation en janvier 2016 que Panda est dorénavant intégré à l'algorithme principal de Google. Depuis, Panda n’est plus un filtre appliqué au cœur de l'algo principal, mais il devient central.
Autre modification majeure en septembre 2016 : la dernière mise à jour de Pingouin est également intégrée à l’algorithme principal de Google. Les sites et les liens internes comme externes sont mesurés en temps réel.
En janvier 2017 l’expérience utilisateur revient en force : c’est la chasse aux pop-ups intrusives qui nuisent à l’UX, notamment sur les Smartphones.
Durant quelques mois, de nombreux changements sont apparus dans le classement des sites Internet, mais Google n’a confirmé aucune mise à jour ni nouvel algorithme. Personnellement, j’ai pensé à des tests grandeur nature, et l’arrivée de Fred en mars pourrait aller en ce sens. Le contenu de faible qualité est visé à nouveau.
Il l’est une nouvelle fois en mai 2017, mais Google rajoute des règles vérifiant que l’expérience utilisateur n’est pas affectée. En tant que search expert, c’est à ce moment que j’ai compris que pour les années à venir, l’UX sera un critère de qualité. Ces changements vont continuer sporadiquement jusqu’en novembre 2017.
A partir de décembre 2017, et fortement en mars 2018, Google veut favoriser les sites Internet avec de bons contenus. C’est précisément le 12 mars 2018 que la firme annonce sur Twitter que les modifications visent à « profiter aux pages auparavant sous-récompensées », et qu’elle conseille à tous les protagoniste du SEO de « continuer à créer un excellent contenu » (dixit).
Et en août 2018, pour la troisième fois cette année, Google déploie une mise à jour d'algorithme de base très large.
Jusqu’en 2019, les consultants seo notent des variations dans les classements, mais pas de changement d’algorithme cardinal.
Et nous arrivons en 2019, date de rédaction de ces lignes.
Danny Sullivan de Google, annonce via Twitter une mise à jour globale du cœur principal des algorithmes. Elle constitue l'une des plus importantes depuis des années. La maître mot est qualité et expérience utilisateur, encore une fois.
Début juin 2019, une mise à jour des règles de référencement est déployée dans le monde. Google indique toutefois aux prestataires SEO qu'il n'y a rien de spécifique à corriger : cette mise à jour principale englobe un trop large éventail de facteurs.
Il existe de nombreux changements en termes de référencement naturel : le Core Web Vitals et l'intégration de critères liés à l'UX. Ce sont des éléments susceptibles d'amoindrir l'expérience utilisateur (UX), ou de la faciliter. Monsieur Google, John Mueller, a également divulgué quelques conseils que je vous restitue dans l'article du blog : une leçon de référencement du gourou en chef.
La qualité du codage importe beaucoup également. Un site Inetrnet fait de A à Z par un développeur Web peut être difficile à optimiser sur des points précis si la programmation est qualitativement trop basse. Une refonte complète du site peut être nécessaire. Le choix dépend de votre positionnement dans les pages de résultats de Google. Si vous avez un site Wordpress, la refonte doit être effectuée avec un autre Builder. J'ai un collègue Webmaster qui ne fait que du Wordpress, et qui procède à une refonte de sites Internet parfois sans rien retoucher d'autre que la construction du code, et de nouvelles pages se retrouvent référencées du jour au lendemain, après la mise en ligne. Comme quoi la qualité du code est essentielle dans le référencement.
Pour établir une base solide pour votre site Internet, vous devez résoudre tous les problèmes techniques susceptibles de réduire la visibilité de vos mots clés. Pour illustrer, ses pages web et tous les contenus doivent être facilement accessibles une fois l'internaute redirigé sur votre site. L'idée générale est qu'une difficulté pour l'utilisateur aura également un impact pour les moteurs de recherche. Or si leur exploration connaît des freins, il en sera de même sur le classement du site sur vos mots clés.
Fort heureusement, l'inverse est juste aussi.
Assurez-vous que votre site Internet possède une structure de navigation parfaitement optimisée, à la fois pour les utilisateurs comme pour les robots. Les silos sémantiques sont indispensables pour la sérénité de votre classement dans les SERPs, dans la mesure où le maillage interne est excellent. Corrigez les liens brisés et travaillez votre page 404 pour aider l'internaute. Résolvez également les problèmes de contenu en double sur votre propre site ; le duplicate content interne est un handicap de taille.
N'hésitez pas à faire réaliser par un consultant seo un audit technique approfondi de votre site Internet. Mais veillez à ce qui ne le fasse pas avec des applications gratuites que tout le monde trouve sur le Net. Pour apporter les justes préconisation, non seulement il faut une expertise, mais surtout la connaissance des infractions, des manques et des petites corrections utiles.
Ne bradez pas la recherche ou la résolution des problèmes techniques prioritaires.
J'insiste beaucoup sur l'expérience utilisateur et la valeur de la marque, ou le renom de votre site Internet, car ce sont des facteurs importants pour améliorer la visibilité dans la recherche organique des internautes. Attention, je ne dis pas que l’UX est responsable d'un bon classement et qu'elle remplace le SEO ! Il est juste important que l’expérience utilisateur et le référencement se conjuguent.
Le plus important est de donner rapidement aux utilisateurs le contenu qu'ils demandent, et de manière transparente sur tous les appareils. Je vois beaucoup d'appels d'offres pour les webmasters, où les porteurs de projets souhaitent améliorer le temps de chargement des pages de leur site Internet. C'est l'une des solutions. Mais donner rapidement accès au contenu est également fournir les informations promises dans le descriptif d'une part, et répondant aux attentes de l'internaute d'autre part.
Pour la priorité à la vitesse, cherchez un développeur web pour compresser les images, rendre votre site responsive, nettoyer le code (ce qui peut exiger une refonte du code), mettre les mains dans le serveurs pour l'accélérer.
Pour la priorité au contenu, un chef de projet SEO ou un search expert peut vous aider. Ce sont des professionnels qui connaissent bien l'importance de l'information. Et contrairement à un rédacteur seo traditionnel, ils ne se contentent pas d'écrire un contenu en reprenant un peu tout ce qui se dit sur les blogs ou les sites de vos concurrents. Cette différence est importante pour vous, car la qualité du contenu ponctue le classement de vos pages web.
Il faudrai crée aussi des campagnes de publicité afin de ramené le maximum de client, et tous les procédé utile de marketing pour augmenter le taux de conversion.
Sauf si vous pensez qu’il faut analyser la plateforme dans sa conception des choses qu'il manquerai éventuellement.
Pour les campagnes de publicités, c’est du référencement payant. Il faut une Landing Page pour chaque annonce. Il faut les créer ou les auditer selon qu’elles existent ou pas.
Si vous désirez un devis, je vous invite à utiliser le formulaire adéquat en cliquent sur autre chose que les commentaires qui ne servent pas ce but ;-)