10885

DigitalGérerLes difficultés

Les pénalités de Google

Les moteurs de recherche, au premier rang desquels Google, se donnent pour objectif d’établir des résultats pertinents pour une recherche donnée. La concurrence entre sites web faisant rage, les webmasters sont souvent tentés d’utiliser des techniques trop agressives de référencement. D’autres plateformes cherchent à augmenter leur trafic en produisant du contenu textuel de masse de mauvaise qualité.

Pour lutter contre ces pratiques qui nuisent aux internautes, Google met en œuvre des techniques pour filtrer les résultats qu’il ne juge pas pertinents. Malheureusement, il arrive qu’en toute bonne foi, certains sites se trouvent déclassés sans raison compréhensible. Quelles sont ces pénalités infligées par le géant américain et comment en sortir ?

Les pénalités susceptibles d’être mises en œuvre par Google

Les deux pénalités les plus redoutées sont le déclassement et le blacklistage. Dans le premier cas, une ou plusieurs pages du site web auparavant bien classées sur des requêtes importantes pour votre activité (en première ou deuxième page) se voient reléguées 3 voire 6 pages plus loin. Dans le second cas, c’est tout le site qui n’apparaît plus dans les résultats de recherche. La requête « site : www.monsiteweb.com » ne renvoie alors sur aucune page du moteur de recherche.

S’assurer de ne pas utiliser des techniques prohibées

Avant de se lancer dans une stratégie de référencement, il faut préalablement être certain de ne pas utiliser des procédés sévèrement sanctionnés par Google. Ces derniers demeurent bien connus et les sites qui y recourent sont systématiquement impactés. Voici un panorama des techniques répréhensibles :

• Les pages satellites, qui pointent des liens artificiels optimisés pour des requêtes

• Le cloaking, qui consiste à présenter des pages différentes selon qu’il s’agisse du dispositif d’indexation de Google (le robot d’exploration Googlebot) ou de l’internaute,

• Le keyword stuffing, qui va quant à lui reposer sur l’inclusion d’une grande quantité de termes identiques ou synonymes d’une recherche dans l’espoir de favoriser son émergence dans les résultats de recherche,

• La présence de contenus cachés, comme un texte disposé sur une couleur identique,

• Du texte sans rapport avec le thème de la page, qui aurait été inclus artificiellement, ou bien un contenu qui n’apparaît pas comme ayant une cohérence sémantique. Attention : les défauts liés à ce dernier sont de plus en plus repérés par Google, qui mène un travail important sur l’analyse sémantique.

Vérifier qu’il n’y a pas d’erreur technique

Des changements tels que le travail avec un autre prestataire ou la modification de votre plateforme d’hébergement peuvent conduire à des dysfonctionnements graves mais facilement résolubles. Ainsi, on peut citer comme exemple une mauvaise configuration du fichier robots.txt qui gère l’indexation de Googlebot ou une réécriture des URL qui bloque le suivi des liens internes. Votre site peut également être victime de son succès et la lenteur de chargement des pages peut en venir à stopper le robot d’indexation qui alloue des ressources limitées à l’exploration.

L’évolution des filtres

Google choisit ses résultats via deux opérations indépendantes : l’algorithme qui est synchrone à votre recherche et le filtrage périodique qui effectue un tri préalable. Les deux filtres les plus importants sont Panda et Penguin. Pour savoir quel est le filtre qui a impacté votre site, le premier réflexe est généralement de consulter les dates des mises à jour Google pour faire le lien entre la mise à jour d’un des filtres et la chute de trafic de votre site. Ces derniers sont mis à jour périodiquement. Le premier vérifie la qualité des contenus et pénalise les techniques prohibées précédemment décrites. Le second veille surtout à la qualité des liens pointant vers votre site. Ils doivent présenter un aspect « naturel », c’est-à-dire être issus de sources suffisamment variées. Les exigences de Google en la matière devenant de plus en plus élevées, il arrive que des sites deviennent progressivement déclassés. Un travail plus important doit alors être mis en œuvre pour accroître la qualité du contenu et le netlinking.

Les demandes de réexamen auprès de Google

Si vous subissez des pénalités, il reste possible de communiquer avec les services de Google en charge de la qualité, afin de demander le réexamen de votre dossier. Si vous avez un compte Google Webmaster Tools, le comportement des pages déclassées vous a certainement été communiqué. Dans la mesure où vous avez pris les dispositions nécessaires pour remédier aux défauts responsables de votre pénalité, il vous faudra exposer les mesures prises. Google met d’ailleurs à votre disposition un formulaire dédié au réexamen des sites pénalisés (http://goo.gl/svHTp). 

Cas particulier

Vous pouvez avoir fait l’objet de manœuvres déloyales de la part de votre concurrence. La technique la plus connue s’appelle « negative SEO » et consiste à dupliquer le contenu de votre site sur d’autres hébergeurs ou à poser des liens artificiels. Pour faire lever ces pénalités occasionnées, il vous faudra faire la demande auprès de Google avec vos observations, en ayant bien pris soin au préalable de désavouer les liens toxiques via Webmaster Tools.

Il existe des entreprises spécialisées dans les pénalités Google qui peuvent vous aider à sortir de cette situation tel qu’Eskimoz, reconnu dans ce domaine.

A lire également

L’importance du référencement naturel

Afficher plus

Articles similaires

Bouton retour en haut de la page