DigitalGérerLes difficultés

Les pénalités de Google

Les moteurs de recherche, au premier rang desquels Google, se donnent pour
objectif d’établir des résultats pertinents pour une recherche donnée. La
concurrence entre sites web faisant rage, les webmasters sont souvent tentés d’utiliser
des techniques trop agressives de référencement. D’autres plateformes cherchent
à augmenter leur trafic en produisant du contenu textuel de masse de mauvaise
qualité.

Pour lutter contre ces pratiques qui nuisent aux internautes, Google met en
œuvre des techniques pour filtrer les résultats qu’il ne juge pas pertinents.
Malheureusement, il arrive qu’en toute bonne foi, certains sites se trouvent
déclassés sans raison compréhensible. Quelles sont ces pénalités infligées par
le géant américain et comment en sortir ?

Les pénalités
susceptibles d’être mises en œuvre par Google

Les deux pénalités les plus redoutées sont le déclassement et le
blacklistage. Dans le premier cas, une ou plusieurs pages du site web
auparavant bien classées sur des requêtes importantes pour votre activité (en
première ou deuxième page) se voient reléguées 3 voire 6 pages plus loin. Dans
le second cas, c’est tout le site qui n’apparaît plus dans les résultats de
recherche. La requête « site : www.monsiteweb.com » ne renvoie alors sur aucune
page du moteur de recherche.

S’assurer de ne pas
utiliser des techniques prohibées

Avant de se lancer dans une stratégie de référencement, il faut
préalablement être certain de ne pas utiliser des procédés sévèrement
sanctionnés par Google. Ces derniers demeurent bien connus et les sites qui y
recourent sont systématiquement impactés. Voici un panorama des techniques
répréhensibles :

• Les pages satellites, qui pointent des liens artificiels optimisés pour
des requêtes
• Le cloaking, qui consiste à présenter des pages différentes selon qu’il
s’agisse du dispositif d’indexation de Google (le robot d’exploration
Googlebot) ou de l’internaute,
• Le keyword stuffing, qui va quant à lui reposer sur l’inclusion d’une grande
quantité de termes identiques ou synonymes d’une recherche dans l’espoir de
favoriser son émergence dans les résultats de recherche,
• La présence de contenus cachés, comme un texte disposé sur une couleur
identique,
• Du texte sans rapport avec le thème de la page, qui aurait été inclus
artificiellement, ou bien un contenu qui n’apparaît pas comme ayant une
cohérence sémantique. Attention : les défauts liés à ce dernier sont de plus en
plus repérés par Google, qui mène un travail important sur l’analyse
sémantique.

Vérifier qu’il n’y a
pas d’erreur technique

Des changements tels que le travail avec un autre prestataire ou la
modification de votre plateforme d’hébergement peuvent conduire à des
dysfonctionnements graves mais facilement résolubles. Ainsi, on peut citer
comme exemple une mauvaise configuration du fichier robots.txt qui gère
l’indexation de Googlebot ou une réécriture des URL qui bloque le suivi des
liens internes. Votre site peut également être victime de son succès et la
lenteur de chargement des pages peut en venir à stopper le robot d’indexation
qui alloue des ressources limitées à l’exploration.

L’évolution des
filtres

Google choisit ses résultats via deux opérations indépendantes :
l’algorithme qui est synchrone à votre recherche et le filtrage périodique qui
effectue un tri préalable. Les deux filtres les plus importants sont Panda et
Penguin. Pour savoir quel est le filtre qui a impacté votre site, le premier
réflexe est généralement de consulter les dates des mises à jour Google pour faire le lien entre la mise à
jour d’un des filtres et la chute de trafic de votre site. Ces derniers sont
mis à jour périodiquement. Le premier vérifie la qualité des contenus et
pénalise les techniques prohibées précédemment décrites. Le second veille
surtout à la qualité des liens pointant vers votre site. Ils doivent présenter
un aspect « naturel », c’est-à-dire être issus de sources suffisamment variées.
Les exigences de Google en la matière devenant de plus en plus élevées, il
arrive que des sites deviennent progressivement déclassés. Un travail plus
important doit alors être mis en œuvre pour accroître la qualité du contenu et
le netlinking.

Les demandes de
réexamen auprès de Google

Si vous subissez des pénalités, il reste possible de communiquer avec les
services de Google en charge de la qualité, afin de demander le réexamen de
votre dossier. Si vous avez un compte Google Webmaster Tools, le comportement des
pages déclassées vous a certainement été communiqué. Dans la mesure où vous
avez pris les dispositions nécessaires pour remédier aux défauts responsables
de votre pénalité, il vous faudra exposer les mesures prises. Google met
d’ailleurs à votre disposition un formulaire dédié au réexamen des sites
pénalisés (http://goo.gl/svHTp). 

Cas particulier

Vous pouvez avoir fait l’objet de manœuvres déloyales de la part de votre
concurrence. La technique la plus connue s’appelle « negative SEO » et consiste
à dupliquer le contenu de votre site sur d’autres hébergeurs ou à poser des
liens artificiels. Pour faire lever ces pénalités occasionnées, il vous faudra
faire la demande auprès de Google avec vos observations, en ayant bien pris
soin au préalable de désavouer les liens toxiques via Webmaster Tools.

Il existe des entreprises spécialisées dans les pénalités Google qui
peuvent vous aider à sortir de cette situation tel qu’Eskimoz, reconnu dans ce domaine.

A lire également

L’importance du
référencement naturel

Afficher plus

Articles similaires

Bouton retour en haut de la page