Quand indexer les résultats de navigation à facette ?

J’ai lu un article chez keeg sur la navigation à facette. Alexandre soulevait une question intéressante, quand indexer ou non les urls issues de la navigation à facette ? Je me demande si il n’était pas plus simple d’aborder la chose de manière très binaire pour savoir si on indexe ou on indexe pas ce genre d’urls.

Petite formalité, la navigation à facette permet à l’utilisateur sur un site internet d’affiner une offre selon des critères proposés. Sur un e-commerce par exemple le but est de lui faciliter l’accès aux produits lorsque l’offre est riche et complexe. Évidemment si on implémente une navigation à facette c’est parce que l’on estime qu’il en a le besoin ou qu’elle lui sera utile.

Je vois deux grands cas de figure. Celui où les critères de sélection sont exprimés par l’utilisateur en amont (dans la requête de recherche) et celui où ce n’est qu’après avoir visité le site web que les utilisateurs découvrent la commodité d’être guidé au milieu d’une offre complexe.

Est-ce que oui ou non ces urls peuvent constituer une porte d’entrée organique (depuis la recherche naturelle) sur votre site ? Je crois que tout est dit.

Soit vos filtres correspondent à un besoin conscient des utilisateurs, vérifiable par l’existence de requêtes de longue traîne correspondantes, soit vos filtres ne correspondent à aucun besoin exprimé par l’utilisateur, mais vous savez par avance qu’ils lui faciliteront la tâche sur votre site.

Dans le premier cas l’internaute exprime son besoin de manière précise sur Google, et alors je ne vois pas pourquoi on indexerait pas les urls filtrées pour son besoin. Dans le second cas ces urls ne seront jamais une porte d’entrée vers votre site (l’utilisateur n’exprimera pas son besoin dans le search avec des critères aussi précis) et alors ont peut estimer que l’indexation sera stérile.

Pour aller plus loin sur le sujet, les meilleures et pires pratiques de la navigation à facette, article de Google webmaster central traduit par @jessyseonoob

2 Comments

  1. Totalement d’accord. Malheureusement, dans beaucoup de projets, la théorie est souvent plus simple que la mise en pratique 🙂

    La création de ce type de pages demande clairement un développement initial aux petits oignons en front (finesse de l’indexation / optimisation du crawl) mais aussi une gestion simple en back (autonomie du client pour une gestion simple des pages avec facette). Et là, souvent, l’investissement (temps de développement) et le coût (budget client) ne sont pas évidents à faire cohabiter… Et quand bien même le client dispose par chance du budget, les développeurs n’arrivent pas à répondre véritablement aux besoins SEO exprimés. Attention, je ne critique pas hein, je constate 🙂

    Perso, dans beaucoup de cas, pour éviter le pire, et par mesure de simplicité, je conseille de bloquer l’indexation des filtres d’une manière ou d’une autre, tout en donnant comme alternative, la possibilité d’ajouter éventuellement des pages annexes qui viendront d’afficher dans un encart dédié, un paragraphe de texte… Moins pratique certes, mais plus safe !

    D’ailleurs, on parle ici d’indexation, mais comment gères-tu aussi et surtout la problématique liée au crawl ? Comme tu le disais dans ton post précédent, Googlebot interprète de mieux en mieux le JS et se goinfre dorénavant avec n’importe quoi ! Pour limiter crawl et indexation, je conseillais l’usage du # dans l’URL (comme La Redoute) pour gérer les combinaisons de paramètres mais je doute que cela soit maintenant la bonne solution… As tu un retour d’expérience à ce sujet par hasard ? 🙂

  2. Le problème avec les CMS et les navigations à facettes natives (prestashop ou magento par exemple), c’est qu’on ne peut pas choisir. Soit la nav est indexable, soit elle ne l’est pas, c’est assez binaire. La seule solution est de bidouiller avec des modules.
    D’une manière générale, même quand les filtres de nav à facettes correspondent à des recherches effectuées par les internautes, je n’aime pas trop les indéxer car ça peut vite faire des millions d’url en near duplicate. Après pour les petits sites avec peu de filtres, ça peut effectivement valoir le coup.

Répondre à Antoine Annuler la réponse.

Votre adresse de messagerie ne sera pas publiée.


*