Bienvenue sur le blog ReferenSEO !
Si vous êtes nouveau ici, vous voudrez sans doute découvrir notre formule inédite pour vivre de votre écriture sur le web.
En tout cas, on vous le conseille vivement si vous êtes en recherche de liberté ! 🤩
Bienvenue à nouveau sur le blog ReferenSEO !
Comme ce n'est pas la 1ère fois que vous venez ici, vous voudrez sans doute découvrir notre formule inédite pour vivre de votre écriture sur le web.
En tout cas, on vous le conseille vivement si vous êtes en recherche de liberté ! 🤩
C’est un fait : les préférences des algorithmes changent de jour en jour. Ce qui est autorisé aujourd’hui pourra peut-être vous valoir d’être sanctionné demain.
Et pour certaines pratiques, c’est encore plus complexe : certaines formes sont autorisées, d’autres sont totalement prohibées. C’est par exemple le cas du cloaking, une pratique proscrite par les guidelines de Google, mais que certains sites utilisent encore aujourd’hui.
Mais avant toute chose, un petit point théorique : le cloaking, définition !
Qu’est-ce que le cloaking ?
Le cloaking est défini par Google comme une pratique qui “consiste à présenter aux internautes des URLs ou un contenu différents de ceux destinés aux moteurs de recherche”.
L’idée est la suivante : les algorithmes des moteurs de recherche suivent des directives particulières, des règles selon lesquelles ils établissent le positionnement des sites internet. Le cloaking consiste à respecter ces règles à la lettre : mettre de nombreux mots-clés, avoir une vitesse de chargement idéale, un champ sémantique travaillé…
Le problème, c’est que parfois en respectant ces règles à la lettre, le contenu rédigé devient chaotique. On perd le côté “naturel” des phrases, à tel point que les internautes s’en désintéressent.
Entre la satisfaction des algorithmes rationnels, et la satisfaction de l’internaute en quête d’informations, il faudrait donc choisir ? Pas toujours.
Le cloaking permet d’avoir les deux à la fois : il s’agit d’afficher deux contenus différents aux internautes et aux algorithmes.
Pour les algorithmes, vous avez un contenu sur-optimisé, à la limite du spam, et donc probablement peu agréable à lire.
Pour les internautes, vous avez un contenu clair et efficace, donc ce qu’ils recherchent. Mais c’est également un contenu peu optimisé, que les algorithmes qualifieraient de moins bonne qualité.
Vous indexez donc deux pages différentes, afin de satisfaire tout le monde. Parfait, n’est-ce pas ?
Sauf que Google, avec la désagréable sensation d’être pris pour un imbécile, n’apprécie pas cette pratique du cloaking.
Le cloaking : black hat ou white hat ?
En apparence donc, le cloaking est interdit par Google. Ce dernier veut absolument placer l’expérience utilisateur au centre des préoccupations des auteurs de sites internet. Il ne veut donc pas être trompé avec un contenu qui ne correspond pas à ce que les utilisateurs voient.
Toutefois, il existe différents types de cloaking.
Le cloaking white hat
Le cloaking white hat regroupe toutes les pratiques qui peuvent être apparentées à du cloaking, mais qui sont faites dans le respect des directives Google.
Par exemple, on peut considérer que l’affichage mobile friendly d’un site est du cloaking. En fonction du support utilisé pour ouvrir votre site, l’affichage ne sera pas le même.
Il en va de même si vous effectuez des tests A/B sur votre site. Les tests A/B sont des tests sur des points bien précis : vous mettez en place deux versions de la même page web, et vous observez les résultats.
Vous pouvez vous interroger sur la police à choisir : est-ce qu’un format en italique encourage davantage les internautes à cliquer sur le lien ?
Vous créez alors une page web avec une police en italique, et une page web avec une police normale. Et vous voyez le nombre de clics que vous récoltez, en fonction de la police.
Ces deux pratiques peuvent être considérées comme du cloaking, car il existe deux contenus différents indexés pour une même page. Toutefois, Google fixe la limite du cloaking à l’intention du propriétaire du site web.
Dans les deux situations précédentes, l’objectif de ces pratiques est de trouver la meilleure solution pour l’expérience utilisateur. Et non pas de tromper Google et ses algorithmes. Ce n’est donc pas une pratique rédhibitoire, puisqu’elle n’a pas vocation à cacher des choses au moteur de recherche.
Le cloaking black hat
En revanche, il existe des techniques de cloaking (bien plus répandues) qui sont bannies par Google. Au tout début, le cloaking était courant : les propriétaires de sites internet écrivaient toute une ribambelle de mots clés en blanc sur fond blanc, pour améliorer leur positionnement.
Les moteurs de recherche considéraient donc que la page web traitait d’une thématique de manière exhaustive. Avant de se rendre compte, des années plus tard, que le blanc sur blanc était détecté par les algorithmes, mais pas par les internautes.
Le cloaking black hat consiste à des pratiques qui ont vocation à faire croire aux algorithmes Google que la page web qu’ils ont sous les yeux est la page que les internautes voient. Ce sont des pratiques qui sont largement prohibées par les crawlers, qui peuvent mettre en place des sanctions exemplaires, comme la blacklist pure et simple de votre site.
Comment faire du cloaking ?
Avant toute chose : il est impossible de faire du cloaking “par erreur”. C’est une pratique bien trop technique pour être aléatoire. Vous ne pourrez donc pas vous en défendre devant Google.
Le fonctionnement du cloaking est assez simple. Quand un utilisateur clique sur un site, le navigateur qu’il utilise envoie une requête au serveur du site. Cette requête http affiche certains éléments : l’hôte, l’adresse IP et le user-agent.
En recevant toutes ces informations, le serveur va traduire la page demandée par le navigateur. Et c’est là que le cloaking intervient : en fonction du user-agent, de l’adresse IP et de l’hôte, la page envoyée peut différer. Tout est une question de traduction et d’interprétation par le serveur sur lequel est stocké votre site.
Il existe différentes façons de mettre en place du cloaking : nous allons en voir trois.
Le cloaking avec le user agent
Le user-agent est une en-tête envoyée au serveur lors d’une requête. Lorsqu’il la reçoit, le serveur identifie le demandeur : il sait s’il s’agit d’un robot, ou d’un internaute humain.
Dès que le user-agent est identifié comme celui d’un crawler, le serveur envoie la page réservée aux algorithmes. Dans le cas contraire, il traduit la page prévue pour les utilisateurs.
Il s’agit de la technique la plus simple, et donc la plus aisément repérable.
Le cloaking par l’adresse IP
Le cloaking par l’adresse IP est l’une des pratiques les plus sophistiquées. En plus de repérer d’où provient la demande (de quel pays, de quelle box internet…), l’adresse IP permet de détecter si la requête provient d’un robot d’exploration.
Si tel est le cas, le serveur envoie la page réservée aux crawlers, riche en mots clés et sur-optimisée, pour le plus grand plaisir des algorithmes.
Le cloaking sur l’hôte
Enfin, la dernière technique dont on va parler aujourd’hui est le cloaking par l’hôte. Cette technique consiste tout simplement à identifier sur quel serveur la requête se base, pour déterminer qui en est à l’origine.
Les serveurs de Google (utilisés par les crawlers) sont particuliers, et donc aisément repérables.
Tout savoir sur le cloaking
Le cloaking est une pratique aujourd’hui encore très répandue. En présentant une page sur-optimisée aux algorithmes des moteurs de recherche, les sites internet gagnent en visibilité. Mais c’est un plaisir de courte durée, puisque les crawlers se rendent bien vite compte de la réalité.
Et là, c’est la sanction.
Si vous tenez absolument à faire du cloaking (ce que je vous déconseille), prenez soin de ne pas le faire sur votre site principal. Une sanction sur les sites que vous utilisez pour votre netlinking est beaucoup moins grave qu’une sanction sur votre money site.