A titre personnel autant que professionnel, je suis ravi que le duplicate content soit un critère d'optimisation pris en compte par Google. Le référencement naturel de vos pages web dépend de la qualité qu'elles contiennent, autant sur le plan informatif que sur le niveau technique. Depuis fin 2019, et de manière très marquée sur l'ensemble de l'année 2020, la firme de Moutain View cherche à mettre en avant l'expérience utilisateur, ce qui comprend l'utilité d'une page web et d'un site Internet. La différence entre page et site est qu'une annonce Google My Business n'est pas votre site, et pourtant depuis juillet le plagiat concerne aussi ce domaine.
Google envoie depuis juillet des notifications de suspensions d'annonces Google My Business, et bien d'autres encore. Le contenu dupliqué sur un profil est un facteur de sanction : un avis par mail indique que votre profil a été marqué comme étant un duplicata.
Ces notifications par e-mail sont très utiles, et je suis heureux que Google les envoie maintenant. Le plagiat est une plaie pour :
John Mueller de Google a déclaré courant juillet sur Twitter, que « il n'y a pas lieu de s'inquiéter du contenu dupliqué lorsque vous migrez du contenu d'un site à un autre ». En tant que spécialiste du SEO, son idée est que si vous cherchez à vous positionner sur un mot-clé particulier, il est préférable d'avoir une page solide autour de ce mot-clé.
C'est ce qu'un expert des silos sémantiques appelle une page de niveau I. Il est possible d'avoir des pages de niveau II dont l'ancrage est sur le niveau I, et de créer un maillage internet précis dans un même silo entre des pages de niveau II. Mais il est inutile d'avoir « 100 pages différentes autour de ce même mot-clé » (dixit). Voilà qui alimente une remarque que je fais depuis plusieurs années maintenant : un blog ressemble souvent à un amas de pages web avec des mots clés sur des sujets ou des thématiques variées, tout mélangé au même endroit. Il faut le travailler autrement,ou s'en passer.
Je comprends très bien qu'un porteur de projet de rédaction web pense blog, et multitude de pages pour faire du volume autour d'un ou plusieurs mots clés. C'est un réflexe naturel. Il pourrait me paraître presque normal également (en faisant un petit effort), qu'un concepteur rédacteur digital ne se pose pas la question de savoir s'il n'existe pas mieux qu'un blog en terme de référencement naturel. En revanche, un rédacteur web SEO doit être capable de vous proposer :
La rédaction de textes pour un site Internet doit absolument apporter une plus-value au lecteur, de façon à lui permettre de comprendre, de choisir, de réussir ou de prendre une décision en connaissance de cause. Vous ne devez pas écrire juste pour ranker dans les SERPs, le contenu sera forcément éloigné de l'expérience utilisateur, ce fameux UX qui a fait son entrée dans les critères d'optimisations.
Ne demandez pas à un rédacteur freelance de tricher (content spinning, etc.), ni de faire la même chose que sur un autre site Internet. John Mueller a expliqué courant juin dans un podcast, que Google utilise l'Intelligence artificielle pour comprendre une requête et déterminer ce que l'utilisateur recherche. Il dit dans ce podcast que chaque page web « passe par ce grand réseau où se trouvent différents nœuds d'analyse. […] Et à la fin, nous proposons un classement simple pour les différentes pages web pour ce type de requête ».
Vous pouvez écouter le podcast ici (MP3, en anglais) :
Autant un professionnel pouvait espérer berner un algorithme binaire ou basé simplement sur des conditions, autant vous ne pouvez pas tromper un système pouvant apprendre et décider. J'applaudis ce travail, car en tant que spécialiste en référencement naturel et rédacteur SEO, j'ai compris que Google ne cherche qu'à améliorer ses résultats de recherche. Des changements apparaissent régulièrement, les classements des sites Internet fluctuent parfois, les experts s'énervent de temps en temps, mais Google essaye surtout d'optimiser sa compréhension de la requête.
La rédaction d'articles pour le web assure toujours un bon classement dans les pages de résultats, à condition que les optimisations soient correctes et les contenus utiles aux lecteurs. Mais ce n'est pas suffisant pour gagner des positions, voire viser une stabilité du classement d'un site Internet sur des mots clés.
Le conseil de John Mueller est le suivant : « la meilleure façon pour un site Web de rester dans une position stable, ce qui n'est pas du tout garanti, est vraiment de vous assurer que vous disposez d'une grande variété de facteurs sur lesquels vous travaillez, et de maintenir cette diversité ». En d'autres termes, il faut permettre à Google de comprendre que votre site est pertinent de différentes manières. C'est un gros travail pour le concepteur rédacteur web, et c'est une prestation d'un an, voire de deux ans pour créer les rédactionnels adéquats et obtenir les résultats attendus. Pour acquérir de la pérénité, et arrêter de faire le yoyo dans les positions.
Par adéquat, je signifie que des internautes recherchant le même service ou produit sous un angle d'approche différent, doivent pouvoir trouver votre site. Leurs besoins étant différents, ou tout du moins exprimés différemment, une arborescence en silos sémantiques fait du sens. Chaque niveau devient une porte d'entrée pertinente pour une requête particulière.
Il conclut avec cet avis d'expert dans son podcast : « vous devez vous assurer que votre site Web est bon de différentes manières. Et ne vous concentrez pas aveuglément sur un élément particulier, puis essayez de donner à cet élément un aspect naturel ».
Soumettre un projet de rédaction d'articles pour le Web