Google doit proposer un outil d’analyse des backlinks

Matt Cutts sur le négative seo et l'outil de désaveu des liensLes Backlinks sont un driver fondamental pour le référencement Google, les monitorer est donc stratégique et toute entreprise sérieusement active en SEO est aujourd’hui contrainte d’investir dans une solution fiable de suivi des liens.

Google ayant toujours lutté contre les tentatives de manipulation de son algorithme, entre autres contre la création de liens artificiels, jusqu’à il y a peu on comprenait facilement l’opacité de la firme américaine et sa réticence à offrir un outil digne de ce nom pour le contrôle et l’analyse des backlinks, mais depuis certaines choses ont changé.

L’évolution de l’algorithme de classement impose de nouvelles règles au monde du référencement et voila pourquoi Google devrait au plus vite offrir aux webmasters un outil complet de suivi des backlinks qui soit fiable et friendly.

Aider les webmasters à lutter contre le NSEO

Malgré la com de Google visant à faire croire que le NSEO est marginal, cette pratique est dénoncée par de plus en plus de webmaster. Comme on dit, il n’y a pas de fumée sans feu. Les sites touchés par des actions de négative SEO sont beaucoup plus nombreux que ce que Google veut bien avouer.

L’outil de désaveu est en soi un aveu de la part du moteur de recherche. Le NSEO existe et les webmasters ont besoin de moyens fiables pour s’en prémunir. Cependant Google n’étant pas complètement au point pour faire la différence entre le linking de bas étage (moins grave dans l’absolu) et les liens réellement issus d’un blast NSEO, il tente de rassurer en le qualifiant de marginal et en minimisant sa portée. D’ailleurs il est très intéressant de revenir rapidement sur ce que nous dit Google concernant le négative SEO…

Google sur le Négative SEO

Matt Cutts depuis le Google Plex est intervenu sans jamais répondre clairement à la problématique posée par les webmasters. Réponses évasives et contradictoires, langue de bois, un chef de la webspam team fidèle à lui même, mais qu’importe les webmasters du monde entier n’en attendaient pas moins.

Dans la vidéo du 18 décembre 2012 publiée sur Google Webmasters channel, Matt Cutts veut laisser croire que le négative SEO est un problème mineur, mais en revanche il confirme que des liens de mauvaises qualité ou artificiel provenant de réseaux de liens (publics ou privés) peuvent conduire à la pénalisation d’un site web.

Selon lui donc la plupart du web est « safe » en termes de NSEO, non pas parce que cela ne fonctionne pas, mais parce que c’est une activité très marginale touchant essentiellement les niches ultra compétitives comme celle des jeux en ligne par exemple.

Vous avez bien compris, pour lui le web se résume à deux types de niches, celles avec très peu de concurrence (verry small business), et les niches ultra compétitives. Matt Cutts ignore donc, de manière très habille, toute la zone du milieu, or sur internet il n’y a pas que le Casino et les thématiques pour adultes où la concurrence montre parfois les crocs.

En réalité dès que vous avez des concurrents qui convoitent les mêmes SERPS, il y a un véritable risque, Google le sait mais ne peut l’avouer qu’à demi mot. Offrir une solution pour désavouer les liens venant de vos adversaires, est un pas, mais comment contrôler ses liens entrants de manière fiable si les outils de Google eux mêmes n’offrent pas la visibilité nécessaire pour le faire ?

Google se doit d’être plus cohérent

D’un côté Google prétend aider les webmasters, d’un autre côté ils sont bien avancés quand il reçoivent une alerte pour liens factices. Comment séparer le bon grain de l’ivraie si GWT ne donne aucune indication précise sur les liens auxquels il fait allusion. Une situation bien inconfortable, vous avez le cancer mais vous savez pas où !

Bien sur si Google devait à chaque fois envoyer l’url fumante au webmaster concerné, il deviendrait encore plus facile de faire du linking de bas étage, et de désavouer uniquement en cas de message d’alerte. Seulement quelle est la solution, si vous recevez d’un coup 20% de liens de forum spammy ou depuis un réseau pénalisé par Google ?

La réponse pour moi est simple, une vraie solution d’analyse des backlinks depuis les outils pour les webmasters, ferait certainement beaucoup plus de bien que de mal, et qui permettrai peut être à Google, de récupérer la confiance d’une bonne partie des webmasters, et qui sait peut être, une lutte plus efficace contre le webspam.

En attendant et heureusement pour les webmaster il n’y a pas que Google. Des solutions, payantes certes, existent pour surveiller les liens pointant vers son site. Grâce à Majestic, Ahrefs et d’autres on est donc pas complètement à la rue, mais il semble évident que ces solutions, bien que très fiables,  ne disposent pas des mêmes ressources et moyens dont bénéficie Google pour crawler le web, et détecter les liens de manière aussi efficace que le fait le géant de la recherche.

Quand vous observez la puissance de certains outils automatisés de linkbuilding il est assez évident que la réactivité face à une attaque de NSEO est essentielle si vous voulez vous mettre au plus vite à l’abri d’un acte de concurrence déloyale.

Mais on a beau avoir des solutions alternatives pour analyser les backlinks, si le géant américain entend responsabiliser un peu plus les webmasters, les rendre plus proactifs à travers l’outil de désaveu, c’est alors un minimum d’exiger de Google une solution d’analyse des liens digne de ce nom.

A défaut de renseigner précisément les webmasters sur liens fumant, elle devrait lui offrir au moinsune quantité de données suffisante et un système de gestion aisé, lui permettant de les détecter lui même et d’avoir rapidement une vision complète et claire de son voisinage, facilitant ainsi si besoin le travail de nettoyage.

Si Google est vraiment sincère lorsqu’il se montre comme un partenaire des webmasters et de toutes les personnes faisant du référencement en respectant ses guidelines, il doit pouvoir partager la data, du moins celle qui concerne votre propre site internet.