Pourquoi ne pas dire les choses comme elles sont à propos du netlinking ? En faisant des backlinks on triche avec l’algorithme, point.
Parler de la stratégie de netlinking ouvertement nous évite des débats inutiles et permet de réfléchir à ce qui nous intéresse vraiment : Comment faire du netlinking sans se faire pincer par Google ?
Depuis Penguin les webmasters sont évidemment plus attentifs à leur profil de liens, mais la peur démesurée du linking et les corrélations mal interprétées ont abouti à des postulats qui ne sont pas toujours valables. Les articles de réelle qualité sur les stratégies de linkbuidling post-penguin sont rares, l’un des meilleurs depuis l’arrivée du manchot est à mon avis celui de Léonard Rodriguez…et si vous l’avez manqué , lisez le sans broncher !
A part quelques billets biens foutus donc, peu d’informations de fond sur la manière de faire du netlinking, mais beaucoup d’idées arrêtées et de conclusions hâtives sur certaines “bonnes pratiques”. Parmi celles-ci on retrouve des choses comme : Les liens provenant d’annuaires sont pourris, les liens en site wide sont toxiques, il ne faut pas faire d’échanges de liens, il faut privilégier les liens éditoriaux, etc..
D’autres croient aussi que certaines typologies de liens (ex: le lien éditorial) sont une garantie de rester sous le radar. Les pauvres… en réalité chaque backlink est potentiellement bon et potentiellement mauvais.
Le fait qu’il provienne d’un annuaire, ou qu’il soit placé dans le contenu d’un article, ou dans un “communiqué de presse” est secondaire. Ce qui importe vraiment c’est que le backlink ne soit pas détecté par Google comme non-organique… ou lien factice si vous préférez. J’ai pensé que faire un point là dessus pouvait être utile pour éviter certaines désillusions du type “on change de fusil d’épaule, maintenant on opte pour une stratégie de netlinking basée sur les liens éditoriaux”.
Penser sa stratégie de linkbuilding est bien plus que choisir entre des annuaires ou des articles pour placer des backlinks, car peu importe que vos liens soient situés dans le cœur d’articles de 2000 mots si vous laissez sur votre passage une forte odeur de tricheur. Et si le netlinking n’a pas grand chose de profondément organique, l’apparence naturelle de vos backlinks est bien plus essentielle que la provenance de vos liens.
Ne pas être détecté par Google ?
Je ne prétends pas avoir les meilleures réponses, et remercie d’avance ceux qui critiqueront ou qui compléteront ce billet par d’autres informations sur le netlinking.
Pour ne pas se faire choper par Google et passer à travers les mailles du filet, la question la plus intéressante à se poser est : Comment Google peut détecter les liens factices ?
Les seules réponses irréfutables peuvent être apportées par la science, on attend beaucoup par exemple de l’étude sur le Webspam 2013 des frères Peyronnet pour répondre à cette question, au moins en partie. Mais en attendant nous avons aussi le droit de réfléchir et souvent le bon sens peu nous aider à répondre même aux questions les plus complexes, comme celle de la détection automatique de liens factices.
Depuis l’arrivée du manchot, les SEO avons beaucoup parlé de répartition dofollow / nofollow, de distribution des ancres, de sources de liens, du placement des liens dans la page, mais j’ai l’impression que l’on est allé sur des pistes qui ne sont vraies qu’en partie.
Mythes et réalités du netlinking post-penguin
La répartition dofollow / Nofollow
On sait que les liens nofollow sont utiles pour diffuser un signal plus naturel, mais franchement passer du temps à faire du nofollow juste pour diluer ça me fait un peu chier, alors ce signal a intérêt d’être vraiment important.
Est-ce que le ratio nofollow / dofollow est vraiment un signal fiable de webspam et dans quelle mesure ? Est-ce que c’est vraiment dangereux d’avoir 80 à 90 % de liens en dofollow ? Est ce que je dois vraiment passer 30 % ou 50% de temps de linking à faire du nofollow pour rester sous le radar ?
Pour le savoir le plus simple est l’étude d’un profil de lien 100% naturel et sur un site ayant beaucoup de backlinks. C’est ce que Sylvain nous a proposé il y a longtemps déjà sur le blog axe-net.fr à l’occasion justement d’un article sur le linking naturel post-penguin.
Un site qui depuis sa mise en ligne en 1996 n’a jamais reçu de campagne de netlinking et qui totalisait à la date de l’article plus de 16 000 backlinks, comptait seulement 11% de liens en nofollow et 89% de liens dofollow. Il s’agit pas de dire que ce site avait un super linking, mais simplement de s’intéresser à ce que peut ressembler une répartition dofollow / nofollow naturelle.
Il est évident que sur plus 16 000 backlinks si aucun n’est en nofollow c’est louche, mais chercher à obtenir une répartition 30/50 ou 50/50 me paraît exagéré.
Pour nuancer un peu mes propos, il est aussi possible que le site en question soit tellement clean à tous les niveaux, qu’il puisse se permettre un tel ratio. Mais je pense que l’exemple est suffisant pour démontrer que dans l’absolu une répartition 90% de dofollow / 10% de nofollow n’est pas un critère de pénalisation ou ne devrait pas déclencher l’activation d’un filtre. Ceci à l’air en plus de coller avec les propos de Tiger (“90% du web est en dofollow”) à l’occasion d’une discussion qu’il aurait eu avec Laurent Bourrelly et que ce dernier évoquait ici.
Un exemple unique ne peut servir de règle, mais il y en a d’autres et si vous voulez vous y pencher plus sérieusement, prenez d’autres sites qui n’ont jamais fait de linking (pas même du commentaire de blog) et qui ont du backlink, passez les sous Majestic, ou Cognitive seo si vous voulez faire une analyse plus poussée.
Distribution et répartition des ancres
Pour le coup, la distribution des ancres est une problématique beaucoup plus délicate que la répartition nofollow / Dofollow. Pareil le meilleur moyen de savoir ce qui est vraiment naturel est d’analyser un cobaye. Je vous renvoie encore au billet de Sylvain, les chiffres et les ancres utilisées parlent d’eux mêmes.
Les ancres optimisées sont victimes de leur succès, ça marche tellement que tout le monde en a abusé et si j’évoquais plus haut, une phobie démesurée du linking, pour le coup moi même je joue moins avec les ancres car ce critère à mon avis st beaucoup plus fiable et beaucoup plus simple à pister pour détecter le spam.
Mon idée là dessus n’est pas du tout arrêtée, elle peut évoluer, mais voici l’attitude je préfère adopter aujourd’hui avec les ancres optimisées :
C’est un critère trop important pour m’en passer, donc des ancres optimisées il en faut, mais jusqu’où on peut aller avec les ancres optimisées ? Pour commencer, je propose de définir cette limite en valeur absolue et non pas en pourcentage comme beaucoup le font.
Si on se fixe 20 % max d’ancres optimisées pour une page qui reçoit 500 backlinks, ça fait 100 backlinks optimisés, je pense que c’est beaucoup trop. Bien que les 400 backlinks restants ne soient pas optimisés, à mon avis les 100 liens optimisés clignotent comme des warnings et attirent trop l’attention. Encore une fois je détiens pas la vérité absolue, je peux me tromper… et je me réserve le droit de changer d’avis.
Maintenant supposez que la page web en question reçoivent seulement 20 backlinks, 20% d’ancres optimisées ça nous fait seulement 4 liens optimisés, là je pense qu’il y a aucune raison de se chier dessus. C’est pour ça que je préfère résonner en valeur absolue pour l’utilisation d’ancres optimisées, et me suffire que d’une petite poignée.
Je préfère cette attitude pour plusieurs raisons :
- Google n’a pas besoin de 36 ancres optimisées pour comprendre le sujet d’une page web
- Il n’y a pas que les ancres pour faire en sorte qu’un lien soit pertinent
- Les liens 100% naturels contiennent très rarement des mots clés
- Il y a d’autres façons de ranker
- Ca évite vraiment les emmerdes
Pour ceux qui cherchent une autre technique pour savoir combien d’ancres optimisées suffisent, pas mal la méthode de Christian Méline expliquée dans un podcast référencement, et sur le blog de l’intéressé si vous voulez approfondir à l’occasion d’un article sur les liens et les ancres optimisées justement.
Cible des liens et choix des ancres
Un autre souci avec la linkbuilding, elle souvent est “trop parfaite”, chaque url vise des mots clés précis, et chaque url reçoit des backlinks avec les ancres qui vont bien.
En guise d’exemple imaginons une boutique en ligne de smartphones où chaque marque correspond à une catégorie. Un linking trop parfait serait de faire pointer toutes les ancres “Smartphone Samsung” vers la catégorie Samsung, tandis que les pages produits recevront des backlinks avec des ancres du type “Samsung Galaxy S4”.
C’est trop parfait pour être naturel à mon goût. Ma proposition est de faire pointer aussi les backlinks aux ancres génériques vers les pages produits et pas seulement vers les catégories principales. Un bon maillage interne permettra de faire le ménage dans tout ça, et évitera les éventuels problèmes d’interprétation par Google.
Cet exemple est aussi valable pour les ancres non optimisées du type nddomaine.com. Dans la majorité des cas elles pointeront vers la page d’accueil… mais pas uniquement par ce que si vous vous demandez où vous pouvez acquérir votre Samsung Galaxy S4, je peux simplement vous répondre chez Amazon.
Liens éditoriaux sur CP, réseaux de sites et linkwheel
Le lien éditorial j’adore, il est souvent présenté comme le Saint Graal du référencement naturel. Si le lien éditorial (que j’aime bien dans l’absolu) me fait assez marrer, c’est parce que beaucoup croient que c’est le top du top en matière de backlink. Or, c’est pas parce qu’il est éditorial que le backlink est moins toxique, et de nombreux liens éditoriaux, placés dans du contenu sémantiquement correct, sont beaucoup plus nocifs que certaines fiches d’annuaires pourries.
Finalement que le lien éditorial provienne d’un blog, d’un site de “communiqués de presse” ou même d’un vieux MFA c’est pas un problème tant que les signaux envoyés (à la fois par le site référent et par le site cible) tiennent la route.
Pour en revenir aux vieux CP, et aux backlinks “éditoriaux” qu’on y trouve. Google a pas besoin de faire beaucoup d’efforts pour détecter la supercherie, ils sont grillés à 10 km la plupart de ces sites. Mais ils sont pas cramés parce que ceux sont des “CP”, mais à cause de certains signaux qu’ils ont commun et qu’ils multiplient.
- Pas de maillage interne entre les articles
- Articles contenant systématiquement plusieurs liens externes
- Articles contenant au moins 3 liens externes vers le même site
- Architecture de type blog sur un site à thématique généraliste
Oui c’est du lien éditorial, mais quel puissance ont ces liens ? Quel crédit Google peut-il bien accorder à un article contenant 5 liens vers le même site ? Ce n’est pas déjà un indice très fiable pour permettre à Google de détecter des liens factices ?
Je parle pas de la qualité intrinsèque des articles, car Google vraisemblablement n’a toujours pas cette faculté, mais même si il ne sait pas lire… le bougre sait quand même compter !
Le minimum syndical est de placer d’autres liens externes vers des ressources crédibles. C’est pas la seul précaution à prendre, mais c’est déjà le minimum quand on veut brouiller correctement les pistes.
Une autre précaution pour qu’un réseau de site tienne la route, c’est de ne pas y fourrer les mêmes clients ! Imaginez un réseau de 30 sites servant à linker 20 clients :
Si sur le premier site du réseau vous placez un backlink vers chaque client, ça passe, c’est juste un site. Mais si vous faites la même chose sur le 2ème site de votre réseau… C’EST MORT !
Pas besoin d’utiliser les 30 sites du réseau pour se faire choper, c’est déjà grillé à partir du deuxième. Vous pouvez dépenser de l’argent pour avoir des IP variées, vous pouvez prendre des précautions avec les whois, vous pouvez faire en sorte que les sites de votre réseau ne soient pas liés entre eux, si vous linkez vers les mêmes clients depuis vos sites ces derniers seront détectés comme faisant partie d’un réseau (même s’il ne se font pas de liens entre eux), car ils ont déjà plusieurs dénominateurs communs.
Il y a aussi pleins d’exemples qui peuvent contre carrer mes arguments, c’est le cas pour des sites qui sont sur les mêmes annuaires. On peut trouver des centaines de sites qui sont à la fois sur Indexweb et sur l’annuaire Webrankinfo et pour lesquels y a pas de problèmes, mais dans ce cas le signal est à mon avis très différent, déjà il s’agit d’annuaires qui font des milliers de liens externes, la probabilité de lier les mêmes domaines augmente naturellement. D’où encore une fois l’importance de multiplier les ressources pour balancer des liens sortants.
Pour les linkwheel même précautions, avant même l’arrivée de Penguin Laurent Bourrelly dans sa stratégie imparable de Linkwheell insistait déjà sur la nécessité absolue de diluer le signal grâce à des backlinks de diversion :
Jamais, jamais, jamais construire uniquement des liens vers ses sites ou ceux des clients.
Jamais, jamais, jamais… ça avait l’air clair pourtant.
Annuaires et social Bookmarking
Là aussi on pourrait dire pleins de choses. On va pas se raconter de salades, ces spots sont sympas parce qu’ils sont faciles, parce qu’ils ne sont pas gourmands en temps et parce qu’ils peuvent (dans certaines conditions) encore être utiles !
Il faut toujours revenir à la notion de profil de liens, quel est le problème d’être sur 100 annuaires si vous avez 2000 liens ? Y a pas de problèmes, vous ne serez jamais pénalisés seulement parce qu’une petite portion de vos backlinks provient d’annuaires. Est-ce que cela signifie que vous devez faire tous les annuaires qui bougent ?
Il faut bien garder à l’esprit qu’un lien depuis un annuaire, n’envoie pas le signal le plus naturel qui soit. Si un Googler fait face à un de vos liens provenant d’un annuaire, il sait bien qu’il y a 9 chances sur 10 pour que vous soyez à l’origine de ce backlink. Heureusement que vous avez encore le droit d’enregistrer votre site sur toute plateforme susceptible de vous apporter du trafic. C’est l’odeur que vous allez laisser sur chaque annuaire qui en dira long sur vos intentions.
Est-ce que votre soumission ressemble à celle de quelqu’un qui veut se positionner sur des mots clés particuliers ou est ce qu’elle ressemble à celle de quelqu’un qui souhaite faire connaître son entreprise ?
Oui le netlinking sur les annuaires ne représente pas le meilleur signal, mais le vrai problème encore une fois est le cumul des mauvais signaux. Ces mauvais signaux peuvent à l’origine du site où vous soumettez votre url, mais peuvent aussi être dus aux traces que vous laissez à chaque soumission. La moindre des choses pour atténuez des signaux dont n’êtes pas responsable est d’être irréprochable sur les traces que VOUS laissez autour de chaque backlink provenant d’annuaire.
Quelques signaux que vous ne maîtrisez pas (vous pouvez toujours décider d’inscrire votre site , ou non)
- Qualité de la modération (et par conséquent, crédibilité des liens sortants)
- Publicité abusive ?
- Taille max. des descriptions
- Sur optimisation des ancres de liens sortants
- Age ? (quoi qu’il puisse être jeune et prometteur)
Quelques signaux que vous pouvez maîtrisez
- Qualité de vos propres descriptions (réellement informatives, cherchant à véhiculer un message, une image de votre marque/site)
- Taille de vos descriptions (Mettre en avant votre entreprise en 255 caractères est difficile)
- Choix des ancres : (Marque + Activité. Ex : “www.monsite.com : Vente en ligne de vêtements masculins”, et pas forcement “Mode homme”, ou “vêtements hommes”, ou encore croyant bien faire “www.monsite.com : Mode homme” ça passe de temps en temps mais faut pas déconner.)
- Ne pas abuser avec les liens internes : Quand on fait des efforts pour rédiger une description valable il est naturel de vouloir profiter des liens internes autorisés, mais je ne pense pas pour l’instant que la fiche d’annuaire avec lien vers la home plus 3 liens internes soit une bien bonne idée pour passer inaperçu. Il est normal d’en faire un peu, mais ne le faites pas à chaque soumission juste parce que vous en avez la possibilité.
- Nombre de soumissions
- Étalement des soumissions dans le temps
A partir du moment où vous avez maîtrisé la trace que vous laissez (tout simplement en soignant vos soumission), à partir du moment où vous avez à travers une sélection atténué au max les éventuels mauvais signaux envoyés par les annuaires eux-mêmes et à partir du moment où ces soumissions ne représentent qu’une partie de votre stratégie de netlinking vous ne risquez pas grand chose, si ce n’est que soigner votre Page Rank.
Cette section de l’article est consacré aux annuaires et au social bookmarking, mais ce qui a été dit pour les annuaires est valable aussi pour les sites de bookmarks sociaux si ce n’est que vous ne maîtriserez pas les signaux de la même manière. Voici à mon avis un moyen de rester sous le radar tout en faisant du social bookmarking.
Généralement, les e-commerçants ont désormais intégré un blog à leur boutique. Ce n’est pas une idée dégueulasse de populariser aussi cette section, qui devrait d’ailleurs profiter au site dans sa globalité. A mon avis il n’est rien de plus naturel qu’un article de blog soit ajouté dans différents systèmes de bookmarking. Il ne s’agit pas de vous inscrire à 1000 pligg, mais d’avoir quelques plateformes et quelques réflexes lorsque vous publiez un nouvel article, mais pas à chaque fois. Si l’un de vos articles a bien tourné sur Facebook, twitter ou Google + vous pouvez lui coller tranquillement quelques bookmaks.
Inversement, et je peux me tromper, il me paraît étrange qu’une catégorie de votre boutique en ligne reçoivent du lien depuis des sites de social bookmarking, ce n’est généralement pas (il peut y avoir des exceptions) du contenu ayant vocation à être partagé sur les réseaux sociaux.
Fin de l’article.
J’ai probablement oublié des choses d’autant que je suis lessivé, n’hésitez pas à apporter des précisions et s’il faut ajouter des choses utiles à cet article je le ferai volontiers.
Ben dis donc, on va t’accuser de copinage avec tous ces liens vers mon blog.
Merci, merci, merci faut toujours faire des liens vers mon blog 😀
Le souci de base avec ce truc de netlinking est qu’on patauge dans la plus grande hypocrisie. D’un côté, faut soi-disant faire un site qui claque et le reste viendra. Ok…
De l’autre, si tu ne fais rien, ben t’es un référenceur transparent comme dirait l’ami Christian Méline.
Donc, il faut faire l’hypocrite et tenter de reproduire un signal “naturel” tout en étant dopé.
Comme tu dis, ce n’est pas bien compliqué; faut être (un peu) malin et beaucoup taffer.
Faut beaucoup taffer comme tu dis, le netlinkeur doit quand même avoir un petit coté stakhanov.
Bon concernant les backlinks y’en a eu aussi pour tout le monde, Leonard Rodriguez, les frères Peyronnet, Sylvain d’Axe-net, Laurent Bourrely, Majestic, Cognitive… si on m’accuse de copinage parce que j’ai oublié Webrankinfo ! 😀
Très sympa ce (mega) article!
Le lien vers ton billet sur cognitive est cassé (j’espère que c’est pas un mauvais signal pour Google ha ha)
Merci Jerome !
Pour ce qui est du “Méga” article j’ai vraiment un problème dans la vie, je n’arrive pas à être concis… mais je me soigne 🙂 A bientôt !
eh euh… pourquoi Laurent a tout plein de liens et pas moi ? 😉 😉 😉
Bien ton article 🙂
Par contre, la réponse existe-t-elle ?
Pour ma part, je pense que tant que tu ne mets pas des tonnes de liens, et que tu y vas aux MultiRadars (je l’ai casé ;-)) tu prends déjà beaucoup moins de risque.
Tout se joue tellement dans les dosages de nos jours…
Merci Christian content que tu ais apprécié l’article !
Pour ce qui est du tout plein de liens chez Laurent et pas chez toi, tu as complètement raison mais maintenant c’est réglé… j’ai viré tous les liens qui pointaient chez Bourrelly.
Je déconne 😀 j’ai ajouté un lien vers ta méthode, ça se prête parfaitement.
Vraiment cool cet article, j’ai envie d’en écrire un dans la même trempe. L’hypocrisie que l’on rencontre sur le web à propos du Netlinking me fait doucement rire …
Sur les requêtes concurrentielles, j’aimerai bien savoir comment on peut ranker sans faire quelques petits liens …
Et le linkbaiting c’est facile ! Ah ba merci 😉
Enfin bon ça me laisse plus d’opportunité comme ça ! Merci pour cette article =D
Merci Victor pour ton commentaire, ça fait toujours très plaisir.
A propos des requêtes concurrentielles en effet les backlinks c’est comme les bras et pas de bras pas de chocolat… donc Gogo Gadget au brassss 🙂
Super Article! Travaillant pour teliad j’entends moi certains discours (hypocrites) sur l’achat de liens (que c’est le mal par exemple). Certains qui achètent des liens se font en effet pénaliser, mais parce qu’ils s’y prennent très mal (du type, utiliser une seule ancre, super optimisée, pour tous ses liens). Je trouve personnellement qu’utiliser un réseau de lien, plus “dangereux” qu’acheter des liens. Pour deux raisons: les blogs au sein de réseaux (on va pas se mentir) n’ont pas vraiment l’air naturels. Google donne parfois des sanctions manuelles, donc google sait parfois lire :). 2. Si le réseau est mal utilisé, il est facilement repérable par Google (tu l’as d’ailleurs bien expliqué dans ton article). Bien sûr chacun ses méthodes, à partir du moment ou elles fonctionnent c’est qu’elles sont bonnes,
Merci pour ton commentaire,
Je sais pas si c’est de l’hypocrisie voulue ou si certaines personnes n’arrivent simplement pas à comprendre. Peut importe ce que tu fais, il faut bien le faire
Pourquoi forcément chercher des signaux pour savoir si vos liens ont l’air naturel ou pas ?
Moi je pense qu’il y a une perception humaine qui intervient, la pénalité ne vient pas de manière automatique, c’est quelqu’un qui la met…
Donc en créant un lien, il faut plus se poser des questions :
Est-il utile à l’internaute ? Est-il légitime dans ce contenu ?
Un lien qui arrive comme un cheveux sur la soupe dans une page sur un ancre optimisé, tu peux presque être sûr qu’il sera flagué.
Merci pour ton commentaire, il s’est retrouvé dans les indésirables, je l’avais zappé.
“Pourquoi forcément chercher des signaux pour savoir si vos liens ont l’air naturel ou pas ?”
Voici une citation du billet officiel qui annonçait l’arrivée de Penguin en Avril 2012 : While we can’t divulge specific signals because we don’t want to give people a way to game our search results and worsen the experience for users, our advice for webmasters is to focus on creating high quality sites that create a good user experience and employ white hat SEO methods instead of engaging in aggressive webspam tactics..
“On ne veut pas divulguer des signaux spécifiques”, est une preuve parmi d’autres que certains signaux sont utilisés. Réfléchir à quels pourraient être ces signaux me paraît donc utile.
Mais aussi, c’est comme dans la rue maîtriser les signaux que l’on émet permet d’attirer moins l’attention quand on veut passer incognito. Plus ton comportement est suspect plus tu as de chances de te faire contrôler par les flics. Si pour ta protection personnelle tu sais que tu te ballades avec un 357 Magnum tu vas pas commencer à faire le con en taguant les murs du métro. Avec Google à mon avis c’est kif kif. Derrière une perte de positions il n’y a as que des pénalités manuelles. Chercher à Maîtriser le signal permet de passer à travers les premières mailles du filet, et c’est déjà pas rien.
“la pénalité ne vient pas de manière automatique, c’est quelqu’un qui la met…”
Tu as raison une pénalité est forcément manuelle, mais un filtre est automatique. Or si tu te prends un méchant filtre en pleine poire tu n’en n’a rien à faire que Google te dise qu’aucune pénalité manuelle n’a été infligée à ton site. Ce n’est pas une pénalité, mais le résultat est le même, ton site traîne un boulet et le résultat est le même tu es déclassé.
Donc en créant un lien, il faut plus se poser des questions :
Est-il utile à l’internaute ? Est-il légitime dans ce contenu ?
C’est justement cette hypocrisie que ce billet dénonce en partie. Oui le profil de lien idéal serait 100% de liens utiles à l’internaute, malheureusement les SERP c’est pas Alice au pays des merveilles. 100% de liens utiles c’est une utopie, non seulement l’utilité d’un lien a quelque chose de relatif, mais en plus la plupart des sites sont inutiles.
Je préfère en revanche ta notion de légitimité d’un lien. J’en reviens à mon post, les liens doivent être ou paraître naturels. S’ils sont naturels ou présumés naturels par Google, ils ne peuvent être considérés comme illégitimes…
Un lien qui arrive comme un cheveux sur la soupe dans une page sur un ancre optimisé, tu peux presque être sûr qu’il sera flagué.
C’est pas un bon signal en effet… mais je crois que personne ne dira le contraire.
Il faut retenir qu’un site à 100% de liens dofollow, c’est du louche et que l’on risque de se faire sanctionner par Google. Alors le mieux serait de faire un équilibre au niveau des liens afin que cela paraisse plus naturel et apporte des résultats positifs.
Merci pour cet article très long et très intéressant. Je pense que les commentaires peuvent être utiles selon la stratégie employée même en nofollow. Par contre c’est claire qu’il ne faut pas se voiler la face, les liens c’est ce qui fait monter les sites, et avoir du 100% naturel ce n’est pas ce qu’il y a de plus facile pour ça, mis à part pour les sites institutionnels qui apportent une réelle information, et qui sert bien souvent de source.
Ça me tenterai bien d’essayer de faire un site avec des liens 100% naturels, mais ça prend vraiment trop de temps.
Super article , je vois qu’en fait pour ne pas etre penalisé par google il faut faire que du référencement naturel.