Depuis environ deux ans maintenant, les questions de référencement les plus traitées sur la toile concernent les tentatives de sauvetage des sites rétrogradés suite aux updates successives de Google. Deux en après que Google ait commencé sa croisade anti-référencement, et malgré tous les conseils pour sortir son site d’une pénalité qui ont été publiés sur le net, très peu ont réellement réussi en désoptimisant leur site, à remonter la pente pour récupérer leur trafic d’avant guerre.
Le fiasco de la désoptimisation
On trouvera toujours des exemples de remontées après Panda et Penguin, mais sur le nombre de sites touchés par l’un ou plusieurs des updates, le taux d’échecs des tentatives en tout genre pour retrouver les faveurs de Google est un premier constat qui laisse perplexe quant à l’intérêt et l’efficacité réelle de la désoptimisation.
Concernant Penguin par exemple, Barry Shwartz au mois de Janvier dernier publiait des chiffres intéressants sur Search Engine Roundtable et le résultat d’une étude réalisée auprès de ses lecteurs : 81% de sites touchés par Penguin n’ont pu retrouver leur trafic. 13 % d’éditeurs ont constaté une remontée partielle et seulement 6 % affirment avoir récupéré la totalité de leur trafic. Globalement la plupart des opérations sauvetages avaient pour principal fil conducteur, la désoptimisation on-site et/ou off-site selon les cas.
Donc avec 94% de sites qui n’ont pu récupérer leur performances d’avant Penguin, je pense que l’on ne prend pas trop de risques en affirmant que la désoptimisation est globalement un fiasco.
Google vous aurait-il-arnaqué ?
Chacun est libre selon ses objectifs de choisir en toute connaissance de cause et des risques, sa propre stratégie de référencement. Lorsque l’on sait pertinemment quelles sont les règles que l’on a outrepassé, j’ai envie de dire que la chute de trafic est de bonne guerre.
Mais quand un éditeur dont le site est touché, ne sait pas ce qui lui est reproché et pourquoi son site a été épinglé, c’est à se poser des questions. Surtout lorsque son audit de référencement ou l’analyse de sa stratégie ne parvient pas à mettre en évidence, quelconque technique de spamdexing. Malheureusement des éditeurs dans ce cas, qui après avoir tout analysé, ne savent toujours pas ce qui leur est reproché, il y’en a un paquet. Une arnaque possible de Google ?
Retour sur la fonction Rank Transition de Google
Au mois d’Août dernier Bill Slawski publiait The Google Rank Modifying Spammers Patent, son analyse du brevet Ranking documents. Moins d’une semaine plus tard Olivier Duffez relayait l’information et son analyse sur webrankinfo.
En quelques mots ce qu’il faut retenir de ce brevet est la forte probabilité que Google (depuis plusieurs années) utilise une fonction spéciale servant à désorienter une équipe en charge du référencement. En vous allouant à un site une positionnement inattendue, Google entend déterminer, à travers à la réaction d’un webmaster ou d’un référenceur, si le site en question tente ou non de manipuler son algorithme.
Pourquoi Google aurait-il besoin de Rank Transition ?
Tandis que Google a certainement moins de difficultés à détecter les gros bourrins, c’est probablement la zone du milieu, plus complexe à analyser qui lui pose le plus de problèmes. J’imagine que l’on y trouve des sites aux stratégies de référencement bien diverses pilotées aussi bien par, des black hat malins, des référenceurs responsables, des netlinkeurs white hat, des grey hat, bref par une grande variété de personnes qui abordent le SEO de manière différente. Difficile de faire le tri dans tout ça et c’est là qu’intervient la fonction Rank Transition.
Afin de statuer sur cette zone du milieu (qui doit à mon avis représente une bonne partie du web), intervient la fonction Ranking transition, ou positionnement de transition telle que la traduit Olivier Duffez. Google pourrait donc simplement en vous allouant un positionnement inattendu (par exemple une chute de dix places au lieu d’un gain de 5 positions), vous attendre au tournant, en analysant votre réaction.
Dans son analyse, Bill Slawski nous donne deux exemple de Transition Rank. Vous décidez de linker une page en particulier en pensant obtenir un gain de position important. Selon Google votre page a gagné 15 places, mais plutôt que de vous gratifier immédiatement de cette promotion, il peut par exemple vous attribuer un gain, beaucoup plus faible que ce à quoi vous vous attendiez. Déçu vous décidez alors d’accélérer le netlinking… et paf vous tombez dans un filtre anti-spam.
Un autre exemple, toujours dans le même objectif, vous optimisez une page web, en augmentant par exemple la densité d’un mot clé (léger keyword stuffing), vous vous attendez à une légère amélioration des résultats, mais vous constatez une perte de positionnement, vous vous précipitez sur votre site pour faire marche arrière et paf, vous êtes pris en flag !
Autre aspect intéressant, les effets de la fonction peuvent avoir un impact non seulement sur le document, mais un impact négatif sur l’ensemble du site et sur les sources de liens classées alors dans la catégorie Spam.
L’effet déclencheur de cette fonction expliqué dans le brevet serait une amélioration inattendue de votre positionnement, mais qu’est ce qui empêche Google de mettre un coup de pied dans la fourmilière en utilisant un trigger beaucoup plus étendu, ou même aléatoire ? Pire, pour mieux brouiller les pistes Google n’aurait-il pas pu lancer cette fonction au même moment que certains updates ?
Evidemment il y a une grande part de spéculation dans tout ça, mais l’existence de ce brevet est un fait, les nombreux dommages collatéraux restés inexpliqués de Panda et Penguin en sont un autre, et les actions de désoptimisation ayant souvent abouties à une aggravation plutôt qu’à une amélioration sont aussi fréquentes, autant dire qu’il y a des raisons d’être perplexe et de se demander, si derrière Panda et Penguin, il n’y a pas eu aussi autre chose.
Les bonnes raisons de ne pas désoptimiser son site
Bien sur je ne peux pas affirmer que la fonction Rank Transition soit une explication certaine aux problèmes de nombreux sites, mais ce n’est pas non plus la seule raison pour laquelle une désoptimisation est dangereuse. Mais le positionnement de transition de Google est assez révélateur. Premièrement, la simple analyse “intrinsèque” des indicateurs on-site et off-site ne suffisant pas à lever les doutes du moteur de recherche, Google pourrait se servir de la réaction (quelle qu’elle soit) comme un indicateur lui permettant de statuer. D’où la nécessité de temporiser avant de mettre en oeuvre des changements importants ou des désoptimisations majeures.
Ranking transition ou pas, désoptimiser son site pour espérer revenir en haut des résultats de recherche est loin d’être une action anodine à mon avis, et j’ai croisé des éditeurs dont la situation a réellement empiré après avoir fait marche arrière sur différents éléments de leur référencement.
Non pas que la désoptimisation soit dans tous les cas une mauvaise idée, il y a certainement des situations évidentes qui l’imposent, mais il est important de rappeler ceci avant de défaire votre travail de référencement : Désoptimiser son site pour Google, c’est comme plaider coupable en pénal.
Et vous, plaideriez-vous coupable, si vous aviez la certitude d’être innocent ?
Merci Walid, c’est vraiment très intéressant! Je suis totalement d’accord avec toi et je valide par expérience que la désoptimisation ne sert pas à grand-chose ou plutôt cela prouve aux robots qu’on a quelque chose à se reprocher 😉
Solution ?
Quand on s’est pris Pinguin dans la tronche (que sur les mots clés les plus compétitifs), on fait quoi ?… selon la théorié du brevet “rank transition” ?
On ne bouge plus ? mais vu qu’on est effacé des premieres positions…. on n’a plus rien à perdre ?
J’ai tenté de sortir de la nasse mais rien à faire après 2 messages de tentative d’amadouement de GG dans les WMT. rien faire. Ils veulent pas de mes liens désavoués et me disent toujours que nous ne suivons les consignes de qualité pour les liens, etc…
Solution ? laissez tomber ce site et en remonter un tout neuf ? il mettra trois mois au minimu à revenir dans la course ?
si quelqu’un a la moindre idée….
@Lr_web c’est un système déjà en place probablement depuis longtemps, tu bouges d’une certaine façon c’est que tu es coupable.
@Bernard : Je comprends le désarroi, mais supposons une seconde la spéculation sur Rank Transition soit plausible, tu crois que tu t’es pris Penguin, mais peut être que tu t’es pris autre chose. D’ailleurs, temporiser, ne veut pas dire rester les bras croisés.
Si ton site est sous le coup d’une telle fonction, bien sur que tu as a perdre puisque la position de transition par définition est temporaire.
Deux question :
1 ) Qu’est ce qui te fait dire que tu t’es fait pincé par Penguin, le timing de ta perte de positions, ou plutôt des actions que tu as mises en place et que tu sais clairement interdites par Google ?
2) Quelles sont (en gros) les actions principales que tu as mises en place, pour tenter de sortir de Penguin ? Si tu as utilisé l’outil de désaveu des liens, l’as tu fait uniquement parce que Google t’as envoyé un message, ou parce que tu sais très bien que ces liens étaient pourris ?
C’est une analyse très lucide que je partage également.
C’est également un bel aveu de faiblesse de la part de Google qui s’appuie sur la stratégie de la peur pour faire sortir les loups du bois… au risque, comme c’est le cas, de se retrouver avec des troupeaux de milliers de moutons qui tentent de clamer leur innocence.
Je n’ose même pas imaginer la charge supplémentaire de travail depuis que les outils de désaveu et autres formulaires de déni sont en ligne…
De de ce que j’ai pu constater avec mon site test de concours seo (cf. lien), une fois shooté impossible de ranker sur les requêtes qui marchaient avant. Il faut biaiser et créer de nouvelles pages avec des thématiques complémentaires mais indirectes. Et c’est rageant car le site n’est pas sandboxé, il a toujours son PR et ses positions dans les Serps, mais sur d’autres mots-clés que ceux désirés.
Je comprends donc tous ceux qui abandonnent leurs sites, inutile de s’acharner pour tenter d’obtenir un résultat non garanti !
Il faut se rappeler que pour Google, nous sommes [presque] tous coupables. Il suffit de lire ce qu’il dit sur les SEO :
http://support.google.com/webmasters/bin/answer.py?hl=fr&answer=35291
Salut Walid, j’ai toujours pensé que cela existait. Il y a quelques années j’avais discuté avec un collègue SEO là dessus. Son point de vue était de laisser faire et de ne rien toucher lors des premières descentes.
Que certainement Google testait comment allions nous réagir. A l’époque on se prenait pour des paranos mdr.
L’idée était de continuer à amener du contenu et du link comme si rien ne s’était passé et que cela reviendrait. On a vu des sites revenir au bout de 6 mois, voir un peu plus.
En fait, je crois que l’on était pas si fou que cela avec le recul lol. 🙂