Plan de cet article
Le référencement de son site web est une tâche très importante à ne pas négliger, afin d’avoir un bon placement auprès des moteurs de recherche notamment dans le Google. Il ne faut pas se passer de ce travail vraiment élémentaire. Pourtant, de nombreuses personnes ont l’audace de mettre en œuvre des techniques SEO non recommandées par ces moteurs de recherche, voire interdites par Google.
A la découverte du SEO Black Hat
Ces pratiques sont qualifiées dangereuses. Elles sont également connues sous les noms de spamdexing ou « Black Hat SEO ». Pour une courte durée, cette pratique black HAT SEO semble être opérante et payante, toutefois, d’un moment à l’autre, Google peut vous détecter pour cette pratique malsaine et il peut punir le site. À longue échéance, ce SEO black HAT peut produire un effet contraire à celui attendu.
Les sanctions que Google applique peuvent aller d’une dégradation de la position dans les résultats de recherche ou SERP à un oubli total dans ces moteurs de recherche. Pour ce dernier cas, le site ne se montre plus dans Google. Pour vous mettre en garde de ces risques, il est capital d’être au courant de ces techniques non recommandées et prohibées. Voici quelques-unes de ces pratiques les plus connues.
Les textes cachés
Les textes cachés sont des textes de la page qui ne sont pas visibles par les internautes humains, mais qui sont malgré cela identifiables par les robots d’indexation de Google ou autres moteurs de recherche. Bon nombre de ces textes cachés sont souvent des textes ultra-optimisés pour le SEO, dont la teneur est très défavorisée, voire impossible, de lire. Il existe de nombreuses techniques que les réalisateurs de ce black HAT appliquent :
- Ils essayent d’appliquer sur le texte une couleur identique à celle de la couleur de l’arrière-plan et le mettre à l’intérieur de ce dernier. Par exemple, ils mettent un texte marron sur un fond marron. Il s’agit ici de la technique la plus aisée et la plus archaïque. Mais actuellement, il existe d’autres techniques plus compliquées grâce au développement de nouveaux langages CSS et JS. Avec le langage CSS, ils peuvent mettre le texte caché derrière une image ou à l’extérieur de l’écran.
- Ils incluent également un texte en taille de police 0, et autre techniques de base.
- Ils peuvent également mettre des liens cachés en se servant des ancres pratiquement masqués pour l’internaute. Pour cela, ils utilisent souvent un trait d’union ou ils recourent à JavaScript pour faire montrer le lien juste pour quelques secondes après que la pointe de la souris se positionne sur l’ancre.
Les pages satellites
On entend par page satellite lorsque la page est créée exclusivement en vue de perfectionner la visibilité d’un site web. Ici, la page satellite est une page sur-optimisée sur un mot — clé spécifique ou sur une demande de recherche exacte. La page est utile pour apporter du trafic à partir des moteurs de recherche, mais n’a aucun avantage pour l’internaute. En général, son réalisateur se sert d’une stratégie de redirection afin d’empêcher les internautes d’atterrir sur cette page satellite.
De cette façon, la page qui s’affiche dans les résultats de recherche est la page satellite alors que la page qui s’ouvre après avoir cliqué sur le lien correspondant est la page conçue pour les visiteurs humains. On entend également le terme sites satellites. C’est à peu près le même principe : ils créent beaucoup de sites sur-optimisés d’un point de vue du référencement dans le but de produire du trafic du site au premier plan.
Le cloaking
Le cloaking ou cloak en anglais est une stratégie qui consiste à montrer aux visiteurs un contenu autre que celui conçu pour les moteurs de recherche. Sachez qu’il existe deux catégories de visiteurs : les visiteurs humains et les robots d’indexation des moteurs de recherche ou Google Bots. Ces derniers parcourent vos pages dans l’intention de les indexer dans le moteur de recherche. La technique générale de cloaking est de proposer, à ces robots une page sur-optimisée notamment, une page remplit de mots-clés, et à l’internaute une page simple et lisible. Le cloaking consiste aussi à exposer des pages inégales d’un visiteur à l’autre au fur et à mesure de son emplacement et son outil de connexion utilisé (mobile ou ordinateur).
Même si l’adresse URL de la page est identique, l’internaute et les robots parviennent à deux pages différentes. Du point de vue technique, pour le cloaking, son réalisateur se sert des champs HTTP User-Agent pour détecter les types de visiteurs. Cette démarche est notamment interdite.
Le keyword stuffing
Le référencement naturel d’un site dépend surtout des mots-clés. En vue d’avoir un bon positionnement auprès des moteurs de recherche notamment dans Google, il est capital de miser sur ces mots-clés qui conviennent vraiment à ses requêtes. Prenons un exemple de mot-clé comme « investir dans l’immobilier à Nantes ». En vue d’avoir plus de possibilités d’être mieux placé dans le résultat de recherche, ce mot-clé doit être placé dans tous les niveaux de la page c’est-à-dire qu’il doit être trouvé :
- Dans le « title ».
- Dans la méta description.
- Dans le titre H1.
- Et dans un ou plusieurs sous-titres de la page.
De nombreux sites ont tendance à exagérer le nombre de mots-clés ou à remplir leurs pages de mots-clés. C’est en fait le sens du mot keyword stuffing (excès de mot-clé). Par exemple, dans une page qui contient un texte de 400 mots présents 4 ou 5 fois de mots-clés dans la méta description ou plus de 40 ou 45 fois dans son intégralité. Cette méthode peut diminuer la qualité du teneur de la page, mais le pire encore peut être détecté par Google et pénalisé par ce dernier. Sachez qu’à partir de la date de mise en œuvre de la mise à jour Pingouin de l’algorithme de Mountain View, bon nombre de sites ont été déjà des victimes de cette pratique et ont été pénalisés par Google.
Ici, le Black HAT peut s’associer entre elles. Par la pratique, le keyword stuffing peut être caché tout comme tout autre texte caché que nous venons d’expliquer tout à l’heure.
Laisser un commentaire