Le Delisting SEO et une pratique qui consiste à supprimer de façon passagère ou définitive une page Web d'un annuaire ou de l'index d'un moteur de référencement.Pourquoi demander un Delisting d'une page de l'index des moteurs de reférencement ? Il existe un grand...
Catégories
Alphabétique
Newsletter
Google Bombing : qu’est ce que le bombardement SEO
Le bombardement Google (ou "Google bombing") est une technique de référencement Black Hat SEO utilisée pour exploiter à contre-pieds, une fonctionnalité de l'algorithme PageRank utilisé par le moteur de recherche Google, qui attribue l'importance d'une page, en...
Le Cloacking en SEO, qu’est ce c’est ?
Il existe de nombreux processus que nous pouvons mettre en place afin d’optimiser le référencement de notre site Web pour les moteurs de recherche. Parmi l’ensemble de ces techniques, il est important de pouvoir différencier les bonnes “White Hat SEO”, et les mauvaises “Black Hat SEO“. En tant que professionnels du référencement, tout dépend du degré de transparence d’éthique que nous voulons mettre en place dans la gestion de notre site web vis-à-vis des sites référenceurs. De nos jours, l’algorithme de Google est de plus en plus sophistiqué, il devient plus en plus difficile à tromper, de sorte que certaines techniques moins éthiques que d’autre tombent en complète désuétude.
L’une d’entre elles, connue sous le nom de “cloaking“, a connu son “boom” il y a quelques années.
Aujourd’hui, elle n’est quasiment plus utilisée, cependant, il est essentiel de comprendre son fonctionnement pour s’assurer qu’elle n’est présente dans aucun des sites web dont nous avons la gestion.
Le Cloaking : définition
Dans le domaine du référencement, le Cloaking regroupe l’ensemble des techniques de dissimulation SEO par lesquelles le serveur ou la programmation d’un site web est configuré pour présenter aux utilisateurs un contenu différent de celui qu’il présenterait aux robots d’exploration des moteurs de recherche.
Ceci afin d’obtenir un meilleur positionnement pour certains mots-clés.
Le camouflage est une technique dite “Black hat SEO”, car elle enfreint les consignes de qualité que Google destine aux webmasters, qui précisent clairement que leurs Googlbots doivent toujours être en mesure de trouver du contenu pour certains mots-clés.
Comment se déroule le processus de Cloaking ?
Généralement, le Cloacking se fait à l’aide de deux techniques différentes :
Le camouflage à partir de la délivrance du nom d’agent
L‘accès à un site web est effectué par un “User agent“, qui peut être une personne physique ou bien, un robot. Cela signifie que le contenu à afficher peut être ajusté sur le serveur en fonction du type d’User agent. Le cloaking se produit lorsque des contenus différents sont diffusés en fonction du type d’utilisateur qui visite le site par exemple : le système dirige vers un contenu copywrité axé web marketing avec de jolies images et peu de texte pour les utilisateurs humains et un contenu full optimisé SEO avec beaucoup de texte pour les robots.
Il y a quelque temps, le plugin “User agent switcher” permettait d’explorer la page avec l’agent utilisateur Googlebot. Ceci est très utile pour vérifier s’il y a des différences entre le contenu montré à l’utilisateur ou aux robots.
Le Cloaking à partir de l’adresse IP
Cette Technique de cloaking se compose d’un système permettant la détection de l’adresse IP de l’utilisateur afin de lui présenter un contenu différent a suivant s’il détecte une adresse IP d’un visiteur physique ou d’un robot crawler. Il est possible de la mettre en place en modifiant le fichier .htaccess. Par exemple, le serveur Apache possède un module appelé “mod_rewrite” qui permet cette modification.
Existe-t-il d’autres techniques de Cloaking ?
Certaines techniques ne sont pas à proprement parler des techniques de Cloaking, mais elles cachent ou rendent difficile le suivi du contenu par les robots. Elles peuvent donc être considérées comme du camouflage :
Texte caché ou invisible
Très rependue au début des années 2000, cette technique de référencement interdite par Google est très facilement détectable aujourd’hui. Elle était utilisée pour inclure davantage de mots-clés au sein d’une page de manière cachée pour l’utilisateur en écrivant le texte optimisé de la même couleur que le fond (Exemple : texte noir sur fond noir).
La géolocalisation
Il s’agit d’afficher différentes pages en fonction de la localisation. C’est une tactique de référencement courante qui n’est pas considéré comme du Cloacking, de nombreux sites Web le font en affichant un contenu différent selon le pays, par exemple. Cependant, cela peut vite devenir problématique si un contenu différent est affiché en fonction de si l’utilisateur est un robot ou un humain.
Css et Javascript
Cette technique elle aussi ancienne était utilisé pour déguiser le contenu optimisé impliquant l’utilisation de redirections JavaScript qui pouvaient afficher un contenu différent dans le navigateur de l’utilisateur que pour les moteurs de recherche (qui jusqu’à récemment n’exécutaient pas ce code).
Redirections
Les redirections renvoient les utilisateurs qui cliquent sur un résultat de recherche vers un autre site web. Ceci peut être facilement vérifié avec le plugin “Redirect path”. Il s’agit actuellement d’une technique de spam apparentée au Cloacking qui est encore utilisée pour induire en erreur et proposer des contenus controversés.
Le cloaking est-il encore utilisable de nos jours ?
Actuellement, les techniques de Cloaking sont totalement désuètes dans le travail de référencement d’un site Web. Premièrement, en raison de la facilité avec laquelle les moteurs de recherche sont capables d’en détecter l’utilisation, mais également du fait que le contenu sur-optimisé avec une concentration élevée de mots-clés est également de plus en plus facile à identifier et à pénaliser.
Les robots utilisés par les moteurs de recherche sont désormais également capables d’exécuter du code Javascript et de faire des comparaisons entre la façon dont les pages sont perçues par les utilisateurs humains et la façon dont elles sont interprétées par les moteurs de recherche.
Grâce à la fonctionnalité >Crawl as Google de la Google Search Console, nous pouvons vérifier si notre serveur ou notre application Web utilise une technique de dissimulation.
Lorsque l’on utilise le HTML dynamique comme solution pour proposer du contenu optimisé sur mobiles, Google indique qu’il faut inclure un en-tête HTTP qui rend explicite le fait que le code sera modifié par le serveur en fonction du navigateur (user-agent) afin de faire savoir au moteur de recherche que l’on n’essaie pas de camoufler du contenu.
0 commentaires