En tant que spécialiste en référencement, je suis toujours un peu surpris quand mon interlocuteur discute le fait que tous les liens dans un site ne sont pas suivis par les robots des moteurs de recherches. Pour une personne qui n’a pas d’expertise, il ressort qu’un lien est un lien, et que Google a certainement les moyens de les suivre, du moment qu’il y ait une redirection au clic. Je peux maintenant argumenter sous couvert de la reconnaissance officielle de la firme de Mountain View, que c'est véridique.
John Mueller a déclaré lors d’un Google Hangout de début janvier, que lorsqu’un site Internet déploie un système de contenu caché quel qu’en soit la forme, même dans le but de transformer le texte d’une page web en lien, Googlebot ne le détectera pas.
La raison est simple, et se base sur la même explication qui différencie les pages web à optimiser de celles qui ne valent pas de l’être, comme sur un site de rencontres. Pourquoi ? Parce que Google n’utilise pas de souris pour se déplacer, pour se connecter, ni pour effectuer un quelconque évènement. De la même manière qu’il n’a jamais accès au profil des membres inscrits sur un site de rencontres, ni au pages accessibles uniquement après avoir créé un compte, il ne peut pas prendre connaissance d’un contenu clairement affiché à la lecture.
jQuery st beaucoup utilisé, notamment pour cacher des liens et des contenus, sans pour autant qu’il y ait une intention douteuse dans l’esprit du développeur. Certains référenceurs sans connaissance en développement web prétendent que Google accède toutefois aux liens dépendant d’une façon ou d’une autre à jQuery. Pour mettre fin aux interrogations, voici la question posée à John Mueller : « nous avons testé les liens avec JQuery. Considérez-vous cela comme du cloaking ? Car, lorsqu’un internaute glisse sa souris sur le texte, les liens lui seront révélés. »
La réponse de John Mueller est la suivante : dans un tel cas de figure, nous ne serons pas en mesure de sélectionner ces liens, car Googlebot ne va pas pouvoir survoler chaque partie de la page. Il lancera la page, l’affichera de la même façon qu’un navigateur (Internet Explorer, Firefox, Chrome, etc.), mais il ne pourra pas interagir avec elle, afin de détecter la présence effective de liens. Si vous voulez que Googlebot les trouve, alors assurez-vous qu’ils puissent être visibles lors du chargement de la page. Si vous désirez seulement qu’ils soient visibles pour les utilisateurs, alors oui, ce pourrait être une option. Je pense que dans la plupart des cas, il ne serait cependant pas judicieux d’employer de tels moyens.
Généralement, le fait de cacher un lien relève d’une volonté de se protéger contre quelque chose, et souligne que le webmaster n’a pas trop cherché de solutions efficaces ou qu’il a opté pour la simplification. Au vu de la réponse de Google, il apparaît évident qu’il est préférable de prendre le problème de front, au lieu de cacher les liens, voire du contenu. Cela pourrait impacter de façon négative votre site web en terme de référencement.