La série Astuce SEO vise à partager des conseils simples à appliquer et pouvant contribuer immédiatement à vos stratégies SEO. Ces billets sont donc délibérément concis et visent à stimuler votre créativité. 

Suite à mon dernier article dans lequel j’analyse un problème de piratage de contenu en me faisant passer pour un robot d’indexation de Google, j’ai reçu de nombreuses questions me demandant la procédure à suivre pour réaliser cette transformation.

En effet, se mettre dans la peau d’un robot d’indexation est un bon test pour analyser le contenu de votre site, et surtout identifier toute problématique technique qui pourrait venir limiter son indexation. Ou encore, voir si un site triche dans le but d’optimiser son référencement.

Bien sûr, il est toujours possible de simplement afficher le code source d’une page et analyser les différentes lignes de code, cependant parcourir un site aux yeux de Googlebot vous donnera une vue d’ensemble complète et non-obstruée de la présentation d’une page.

Donc aujourd’hui dans cette deuxième astuce SEO, nous allons nous transformer d’un simple visiteur à un robot d’exploration de Google, nous permettant ainsi d’étudier avec concision le contenu que nous leur présentons.

Avant de commencer

Nous avons bien sûr tous nos propres outils et nos façons propres de travailler.  Pour le bien de cet article je vais vous présenter ma configuration, soit le fureteur Firefox ainsi que le plug-in suivant que je vous recommande d’installer :

Un autre outil fort populaire pour consulter une page aux yeux des moteurs est la fonctionnalité « Aperçus instantanés » sous les outils pour les webmaster de Google, cependant le plug-in ici-haut vous permettra une meilleure flexibilité lors de son utilisation.

Transformez-vous en Googlebot

Suite au téléchargement et à l’installation du plug-in « User Agent Switcher », vous pourrez accéder à l’outil sous le menu de votre fureteur Firefox. Simplement sélectionner « Default User Agent », « Search Robots » et ensuite le robot d’indexation du moteur de votre choix, soit dans le cas présent, « Googlebot » du moteur Google :

Une fois sélectionné, votre identité aux yeux des serveurs web est maintenant celle d’un robot Google, et non d’un visiteur régulier. Cela veut dire que le serveur d’un site vous retournera le contenu tel qui a été programmé pour servir Googlebot.

Dans la majorité des cas, vous ne devriez rien voir de différent, puisque le contenu présenté aux robots d’indexation et aux visiteurs d’un site doit être le même, sous risque de contrevenir aux règles de Google.

Cependant, dans certains cas où l’on désire manipuler l’information fournie aux robots d’indexation, par exemple en lui présentant un contenu sur-optimisé en mots-clés ou encore un contenu qui devrait être barré d’accès aux visiteurs, on peut donc repérer immédiatement toute technique de cloaking mise en place, consciemment ou pas.

Premier exemple d’un cloaking illégal 

Effectuons un premier test avec l’URL http://www.aldershottravel.com/our-staff/10-charlotte-huxley.html.

Voici la page présentée par un utilisateur régulier (paramètre Default User Agent) :

Maintenant on demeure sur la même page, et on change notre identité à celle du robot d’indexation de Google :

On rafraîchit la page, et on remarque un nouveau contenu :

Probablement à leur insu, on remarque que le site présente une version différente de la page d’accueil lorsque Googlebot visite la page. L’industrie des prêts financiers et des avances sur salaires regorgent d’exemples de ce genre, donc vous pouvez facilement vous amuser à chercher pour ces mots-clés pour tester votre utilisation du plug-in.

Un exemple de cloaking volontaire

Voici un second exemple d’un cloaking utilisé par un site web, cependant la différence est que celui-ci apparaît entièrement volontaire.

Le site MarketingProfs.com est connu pour la qualité de ses contenus, particulièrement pour ses formations en marketing Internet ainsi que ses études de cas professionnelles.

L’une des sources de revenus pour ce site est bien sûr de faire payer les internautes pour les articles que l’on retrouve sur le site. Cependant le défi pour MarketingProfs.com est qu’en barrant le contenu, le site se prive d’un volume de pages indexables, riches en mots-clés, et de toute évidence utilisés par des clients potentiels.

Donc quelle est la solution ? Bien sûr, mettre le contenu payant en accès limité pour les utilisateurs, mais en présenter une version complète aux robots d’indexation.

Ainsi, si je cherche pour le mot-clé « Common errors in marketing performance evaluation », le premier résultat sous Google est un article sous MarketingProfs.com, soit la page http://www.marketingprofs.com/articles/2013/10244/five-common-errors-in-marketing-performance-evaluation-and-measurement.

Je clic ce lien, et j’atterrit sur un extrait d’article de quelques lignes, où on me demande de m’inscrire pour consulter la suite :

Vous l’aurez deviné – nous allons activer notre mode Googlebot, et surprise, nous avons maintenant l’article complètement à notre portée, sans inscription :

Même si cet article est gratuit à l’inscription, il apparaît que Googlebot n’a pas besoin de créer de compte pour y accéder, soit un contenu entièrement différent de celui présenter aux visiteurs.

Cela représente bien sûr une entorse au règlement, cependant il apparaît que Google laisse passer, alors que le cas MarketingProfs.com a déjà été discuté en ligne sous les communautés.

En terminant

Et voilà, maintenant vous avez l’outil ainsi que les connaissances pour analyser un site aux yeux d’un robot d’indexation. Je vous recommande fortement de l’utiliser lorsque vous analysez un nouveau client pour lequel vous entreprenez un mandat SEO, ou encore, pour tenter de comprendre les raisons qu’un client en apparence inoffensif vous surclasse en ligne :-)

 

 

Related Posts Plugin for WordPress, Blogger...
Astuce SEO #2 : Comment se faire passer pour un robot de Google by

Pour me retrouver sous Google+