Ce matin Daniel a publié sur Seomix un article vraiment intéressant sur Google et la possibilité ou non d’utiliser le taux de rebond comme facteur de positionnement. En réponse à un article de Sylvain d’axe-net Daniel a voulu aussi mettre en évidence la différence entre le taux de rebond et le taux de retour à la SERP.
Pour commencer même s’il peut y avoir une nuance entre les deux, un taux de retour à la SERP pour moi cela reste un taux de rebond. Un rebond est une visite d’une seule page sur un site, je fais d’ailleurs confiance à Nicolas Malo et Jacques Warren, les co-auteurs de l’ouvrage Web Analytics (2ème édition), une lecture hautement recommandée. un retour direct à la SERP c’est donc bien un rebond, Sylvain ne s’est donc pas trompé et si c’était le cas personne ne lui en aurait voulu bien sur.
Pour en revenir l’article de Daniel, je voulais réagir à cette question de taux de retour à la SERP qui est très intéressante et compléter les informations apportées par Daniel par une analyse personnelle, qui n’en n’est pas une d’ailleurs, mais juste une réflexion.
Le retour à la SERP est il un facteur direct ?
Certains soutiennent que le retour à la page de résultats impacte réellement le classement des résultats de recherche, mais cela n’en fait pas pour autant un facteur de positionnement direct et cet impact peut être la conséquence d’une autre analyse qu’effectuerai Google plutôt qu’un facteur direct de référencement ou de dé-référencement d’un site web.
Google stocke dans ses logs des sessions de recherche et les analyse. On suppose qu’il assigne à chaque site un taux de retour à la SERP pour l’interpréter et attribuer un “Quality score” au site en question. A première vue cela peut sembler plausible, seulement si l’on s’intéresse à la fiabilité de ces données je me pose quelques questions.
Tout d’abord, d’un utilisateur à un autre, le retour à la page de résultats n’est pas motivé par les mêmes raisons. Il peut signifier une non satisfaction de l’utilisateur, un besoin d’une information supplémentaire (pas forcément meilleure), un besoin de comparaison, etc.
On peut aussi imaginer un lycéen préparant un exposé et effectuant une requête générale sur un thème donné, retournant à la SERP et précisant toujours un peu plus ses requêtes au fur et à mesure de ses découvertes. Difficile à mon avis d’interpréter un “quality score fiable” à partir de ces données.
Maintenant, supposant que l’analyse des taux de retour à la SERP soit réellement révélatrice de la qualité d’un site…
Pour pouvoir les interpréter de façon fiable Google a besoin d’une “quantité de données suffisante pour chaque site”. Un site générant peu de visites est à mon sens beaucoup moins enclin à transmettre des données en quantité suffisantes pour qu’elles puissent être interprétées de manière fiable.
Je ne sais plus où j’ai lu qu’il y avait 700 ou 800 millions de sites internet (je ne suis pas sur de cette donnée). Une chose est sure cela fait beaucoup mais l’écrasante majorité d’entre eux sont très probablement des sites de petites envergure.
Dans une perspective de classement des résultats, individuellement chacun de ces millions de sites apporterai je pense une trop faible quantité de données pour pouvoir être utilisée par Google.
Si on suppose que 80% ou plus de l’index de Google est composé de ces sites de petite taille, j’imagine mal le moteur de recherche utiliser une donnée “trop floue” comme un facteur de ranking direct qui potentiellement impacterai plus de 80% de son index. L’analyse des sessions de recherche dans ce sens me paraît pas très fiables, mais bon ça c’est moi qui le dit.
En revanche dans une perspective d’amélioration de l’expérience de recherche, l’utilisation des sessions de recherche au niveau macro me semble déjà bien plus plausible et plus profitable pour un moteur de recherche.
Je vous mentirai si je vous disais que j’ai lu ce brevet entièrement ou si je vous disais que j’ai compris tout ce que j’ai lu. Cependant les grandes lignes du brevet sur l’analyse des sessions de recherche et dont parle Bill Slawsky me donne plus l’impression d’un système de machine learning permettant à Google d’apprendre à mieux interpréter le besoin des utilisateurs à partir de leurs requêtes et à mieux cerner les recherches associées.
Finalement plus qu’un système participant au classement des pages web, l’analyse des sessions de recherche et des retours à la SERP servent peut être plus à une meilleure compréhension des requêtes de recherche. Mieux comprendre les motivations de la recherche, pour proposer de meilleurs résultats, modifierai en effet la présentation des SERPs, sinon cela ne servirai à rien, cependant peut on les considérer comme un facteur direct de positionnement ?
Pour moi, c’est un facteur de validation.
L’algo décide de positionner un site et si les visiteurs rejettent ce site, GG peut décider de le déclasser.
Bonjour,
“Pour pouvoir les interpréter de façon fiable Google a besoin d’une « quantité de données suffisante pour chaque site »”
L’analyse a plus de sens en terme de “mots clés” => pertinente entre SERP et mots clés plutôt qu’au niveau global d’un site.
Cela change tout car un petit site peu se positionner sur un mot clé générateur de trafic.
Je ne sais pas si je suis clair…
@Aurélien, désolé mais je n’ai pas bien compris ton commentaire
Veux tu dire que pour Google, ce qui importe, plus que le comportement vis à vis d’un site web particulier, c’est le comportement vis à vis d’une SERP ?
Je pense qu’Aurelien veut dire que Google assigne une pondération au mot-clé (ou a la page classée) plutôt que directement une pondération sur le domaine.
@FrancoisL merci pour la clarification 🙂
Oui donc c’est seulement sur un mot clé donné que le site serait “déclassé” et ce n’est pas le domaine entier qui serait pénalisé, ç ame parrait logique. Là où j’ai des doutes, c’est dans l’interprétation du comportement de l’utilisateur, pour un comportement donné il n y a pas qu’une interprétation à mon avis.
Je pense que le Machine Learning est plus plausible appliqué depuis les GWT que depuis une session “anonyme” lambda, cra le retour aux Serps peut bénéficier d’une meilleure contectualisation.
Comme je le dis dans l’article (cf. lien “Marre de”), depuis la mise en place de ses filtres Google joue au yo-yo en affichant des sites spammy dans les serps. En général l’internaute reste 10 secondes à peine, le temps de réaliser que le site est imbuvable, et retourne sur la page de résultat.
Il est clair que GG utilise ce genre d’analyse comportementale car les sites en question ne restent pas plus de quelques jours à leurs (bonnes) positions : c’est plus, à mon avis, du crowdsourcing que du machine learning : ce sont les internautes qui lui donnent l’indication que le site n’a pas sa place aussi haut dans les Serps en revenant aux résultats, plus qu’un algorithme quelconque.
My 2 cents, et Joyeux Noël !
Pour ma part, le taux de rebond ne signifie pas forcément que le site est de mauvaise qualité… Je donne un exemple: je cherche un numéro de téléphone sur google, si je parviens à le trouver du premier clic, je ferme la page au bout de quelques secondes, et j’ai obtenu l’information que je cherchais. Il faut bien avoir à l’esprit que le but des moteurs de recherche, c’est de présenter de l’information pertinente et facilement identifiable.
En plus, si un internaute doit se coltiner la lecture de 50 pages d’un même siteweb pour trouver une petite information, est-ce que google va interpréter cela comme étant un site interressant?
Je suppose qu’à l’avenir, google établiera ses SERPS en fonction du profil des internautes: si deux personnes tapent les mêmes clés, elles n’auront pas les mêmes résultats parce qu’elles n’ont pas le même type de profil.
Bien sûr ! En ce qui concerne l’adaptation des résultats de recherche en fonction du profil, ça commence déjà à se dessiner avec des SERPs influencées par les “connexions” (les amis) du profil en questions. C’est déjà en marche chez Google à travers les +1 et on peut penser que l’arrivée de Facebook dans l’industrie du Search va vraisemblablement accentuer cette tendance.