Cloaking
Le Cloaking (signifiant dissimulation en français) est une technique utilisée pour rendre des pages Web les plus visibles possibles et augmenter ainsi la visibilité du site auxquelles elles appartiennent. Grâce au cloaking, deux Internautes qui tapent le même mot-clé dans la barre de recherche pourront atterrir sur des pages complètement différentes et avoir des résultats qui n’ont rien à voir. Les spiders, les robots des moteurs de recherche, et les utilisateurs obtiennent deux versions différentes s’il s’agit d’une page Web dite « cloakée ».
Le cloaking peut être sciemment utilisé de manière malhonnête par des utilisateurs et être considéré comme un spam par les moteurs de recherche. D’ailleurs, Google sanctionne les cloakers mal intentionnés dont les actions nuisent à leurs concurrents. Il est indispensable de bien comprendre tous les enjeux du cloaking, notamment ses avantages et ses inconvénients, ses différentes formes et enfin, les différentes techniques de cloaking.
Les avantages et inconvénients du cloaking
Le principal avantage du cloaking réside dans le fait qu’il s’agit d’une technique très facile à utiliser par les agences SEO. Or les moteurs de recherche ont beaucoup de difficultés à identifier ce genre de technique. Pour une même adresse donnée, on obtient donc deux pages différentes : une provenant du site Web et une autre version optimisée.
Cependant, le principal inconvénient du cloaking est le suivant :
- Le « spam report » peut détecter le cloaking. Il s’agit de rapports, de formulaires émis par des individus voulant dénoncer une pratique de spam. Google met en effet à disposition des formulaires très élaborés et très complets, permettant de dénoncer les sites utilisant ce genre de technique. Si Google estime que du cloaking a bien été utilisé sur un site, il peut aller jusqu’à désindexer les pages du site en question. C’est pourquoi la technique du cloaking est une technique assez risquée.
Les différentes formes de cloaking
Il existe quatre formes de cloaking. Les plus utilisées sont :
- Le cloaking sur User Agent.
- Le cloaking sur IP.
- Le cloaking sur Referer.
- Le cloaking sur l’hôte.
Le cloaking sur User Agent
Le User Agent ou agent utilisateur est une application qu’un client utilise afin d’accéder au Web. Il s’agit d’une chaîne de caractères que le navigateur envoie au serveur quand un Internaute surfe sur Internet, sur une page Web donnée. Il se passe également la même chose lorsqu’un robot ou un logiciel visite une page Web. Le User Agent peut donc aller jusqu’aux bots, spiders, crawlers, robots que les moteurs de recherches utilisent.
Il a l’avantage d’avoir accès à des informations concernant le logiciel ou le robot qui visite la page comme le navigateur utilisé (exemple : Firefox, Google Chrome, Internet Explorer, etc.), la version du logiciel, le système d’exploitation, etc. Les consoles de jeux en ligne, les lecteurs d’écran et certains opérateurs téléphoniques ont leur propre User Agent.
Le cloaking sur IP
Une adresse IP (Internet Protocol) est une série de chiffres qui permet d’identifier tous les appareils qui sont connectés sur Internet. On peut par exemple identifier un moteur de recherche par son IP. L’IP cloaking est une technique de référencement naturel. Les «blackhats » (hackers mal intentionnés) font du cloaking à l’aide d’une adresse IP ou d’une plage d’adresses IP.
Il est possible de cloaker sur l’IP Google bot mais il existe des limites qu’il faut prendre en compte :
- Il faut être informé de tout en temps réel. Par exemple, si Google ajoute de nouvelles IPs, il faut en être informé afin d’éviter la survenue de problèmes.
- Certains services de Google autres que Google bot utilisent quelquefois les mêmes IPs et parfois le même User Agent. Il existe cependant une solution : il est possible d’identifier Google bot, sachant qu’une IP est associée à un DNS et un DNS.
Le cloaking sur Referer
Le cloaking sur Referer (ou « référent » en français) est une technique pour connaître d’où vient l’Internaute. On sait grâce au « Referer » combien de visites il y a eues sur un site donné, une page ou bien une publicité. Il est tout à fait possible de gagner du trafic en ayant recours au spam Referer. En fait, on peut simuler des visites sur des sites avec cette technique de cloaking. On peut par exemple vendre quelque chose d’interdit sur Internet et promouvoir ce produit sans que Google ne s’en aperçoive. C’est une technique qui a certes ses avantages mais qui reste peu fiable.
Le cloaking sur l’Hôte
Le cloaking sur l’Hôte consiste à cacher ou à changer ne serait-ce que marginalement le nom d’hôte des utilisateurs sur IRC, afin que les autres utilisateurs ne puissent pas connaître le nom d’hôte réel.
Les techniques de cloaking
Trois types de techniques de cloaking existent :
- Le cloaking avec JavaScript
- PHP et les langages serveurs
- Les fichiers .htaccess pour cloaker avec Apache
Le cloaking avec JavaScript
Cette technique est la plus utilisée sur les pages satellites. Les robots n’interprètent pas le JavaScript mais peuvent néanmoins le lire.
Il existe deux façons d’utiliser cette technique :
- On fait une redirection en JavaScript en renvoyant les Internautes vers la page voulue, c’est-à-dire la page avec le contenu le plus intéressant. Ainsi, le robot, spider, atterrit sur la page qui a été choisie spécialement pour lui.
- On utilise des balises noscript qui contiennent le contenu réservé aux bots. Mais cette manière d’utiliser le cloaking est beaucoup plus risquée car les bots sont plus vigilants lorsqu’il s’agit de balises noscript.
Le PHP et les langages serveurs
Les langages serveur-side PHP, ASP, Perl ou Java sont interprétés par le serveur Web et ce dernier envoie les résultats générés au navigateur à la fin du script. Cette technique est très avantageuse car les traces sont effacées.
Les fichiers .htaccess pour cloaker avec Apache
Cette technique utilise l’IP et l’User Agent. C’est le même principe que pour le PHP. En effet, le fichier .htaccess permet d’indiquer des commandes pour le serveur. Comme indiqué dans le sous-titre, il sert de configuration pour Apache.
Attention, il est possible d’utiliser le fichier .htaccess de votre site pour l’attaquer, créer des pages dissimulées, etc.
Trois étapes sont donc nécessaires pour vérifier le fichier .htaccess :
- Tout d’abord, vous devez localiser ce fichier sur votre site. Vous pouvez trouver sur Internet sa localisation selon le CMS que vous utilisez. Il faut penser à activer l’affichage des fichiers cachés lors de vos recherches. En effet, la plupart du temps, le fichier .htaccess est un fichier caché.
- Il faut ensuite ouvrir le fichier .htaccess préalablement trouvé afin d’afficher le contenu. Identifiez ensuite dans ce dernier le fichier.php. Il faut alors éliminer les fichiers .php malveillants. Normalement, toutes les lignes comportant la règle RewriteRule et un fichier.php sont inoffensives dans votre fichier .htaccess. En cas de doute, il vaut mieux demander de l’aide à des Webmasters expérimentés.
- Enfin, certains sites peuvent contenir plusieurs fichiers .htaccess. Une fois que vous avez complètement nettoyé un fichier, n’oubliez pas de remplacer tous les fichiers potentiellement affectés, malveillants par une copie nettoyée. Par prévoyance, n’hésitez pas à enregistrer hors ligne un « exemplaire » du fichier .htaccess propre sur votre ordinateur.
Le cloaking présente de nombreux avantages… à condition que Google ne vous repère pas ! De nombreuses techniques et formes de cloaking existent : certaines peuvent être assez simples à mettre en œuvre, tandis que d’autres s’avèrent beaucoup plus complexes.
De nombreux conseils et manuels sont disponibles sur la toile, expliquant en détail les aspects pratiques associés à ce genre de technique. Il est préférable de bien les maîtriser afin de limiter les risques, notamment celui d’être pénalisé sévèrement par Google et de sortir directement de l’index. C’est donc à vous d’évaluer en connaissance de cause s’il vaut la peine de prendre ce risque ou non.
Ils nous font confiance
« Réactif ! »
« Notre trafic SEO a augmenté de +70 %. Cela représente 50 % du trafic global. Ce sont de vrais spécialistes»
Michel Bernardini
Responsable Communication
& Informatique
« Impliqués ! »
« Ils nous ont beaucoup aidés, ce sont des visionnaires, ils nous permettent d’avoir souvent un coup d’avance sur les sujets.»
Thomas Rabanit
Directeur Digital
Un Consultant Senior dédié
Un outil unique au monde
13 années d’existence
+ de 1 000 sites optimisés
70 experts
Le plus gros lab’ R&D de Search Marketing en France
Agence SEO
Découvrir le SEO
Choisir un thème WordPress pour le SEO
Devenez un spécialiste SEO
Quels sont les objectifs principaux d’une stratégie SEO ?
Les résultats naturels et le fonctionnement des moteurs de recherche
SEO : les catégories de site
Stratégies marketing
Comment trouver les meilleurs mots-clés pour votre stratégie SEA ?
Google Ads
Quels sont les 5 leviers incontournables du Marketing digital ?
C’est quoi le référencement payant ?
Campagne AdWords, un outil marketing très puissant
Comment Choisir une Agence SEA à Paris pour piloter ses campagnes ?
Pourquoi s’adresser à une agence SEA pour votre campagne Google Ads ?
Analyse et test SEO – mesurez les performances de votre site web