Il est vital en référencement naturel de permettre aux moteurs de trouver les pages avec du contenu utile (les pages inutiles sont par exemple votre back-office mais surtout des pages qui font doublon avec d’autres). Les moteurs sont performants à ce petit jeu, mais il faut quand même s’assurer de baliser suffisamment le chemin et d’éviter les pièges.
Le principe est simple : toutes les pages utiles de votre site doivent être accessibles en un nombre fini de clics depuis la page d’accueil. Si ce n’est pas le cas (un site dont le contenu n’est fourni que suite au remplissage d’un formulaire de recherche par exemple), vous devez produire plan de site (usuellement un fichier sitemap.xml, dont les spécifications sont accessibles ici : http://www.sitemaps.org/fr/protocol.html) et le fournir à Google par l’intermédiaire de votre compte Google Webmaster Tools (le principe est le même pour Bing et Yahoo). Le sitemap n’a pas besoin de contenir toutes les pages, uniquement celles qui sont mises à jour souvent (vous pouvez préciser la fréquence, mais les moteurs n’en tiennent pas compte) et celles qui ne sont pas accessibles par des clics. Plutôt que le produit manuellement, il existe des outils spécifique à des solutions open source (à préférer, ils sont plus efficaces) ou généralistes (parfois maladroits).
La soumission d’un sitemap est une bonne idée au lancement d’un nouveau site ou d’une nouvelle partie d’un site : vous allez accélérer de quelques jours l’indexation.
Si vous ne pouvez pas créer de sitemap (upload impossible, par exemple), une autre solution consiste à créer une page sur le site, liée depuis la page d’accueil, avec tous les liens vers les pages qui en ont besoin. Attention, évitez de dépasser 50 à 100 liens par page en utilisant idéalement une pagination et fournissez en priorité les pages qui peuvent permettre d’accéder aux autres par des liens. La bonne idée est aussi de se servir de cette page pour aiguiller un visiteur qui serait perdu. Recourrez alors à une présentation agréable à l’œil, ce genre de page pouvant se révéler vite indigeste à lire.
La navigation par facette des sites e-commerce crée ce qu’on appelle un spider trap (piège à robot d’indexation). La navigation par facette est la possibilité pour un visiteur de sélectionner les caractéristiques pour affiner leur recherche de produit comme par exemple la taille d’une paire de chaussures, sa couleur, sa matière, etc. C’est excellent pour l’utilisateur mais un cauchemar pour les robots qui voient ainsi des pages se construire par combinaison de critères. Si vous avez 10 tailles possibles, 10 matières et 10 couleurs, vous pouvez créer 1000 combinaisons, donc autant de pages qui sont inutiles car en contenu dupliqué (nous en parlerons plus en détail plus loin). J’ai eu le cas d’un site qui avait 10 000 références produits : Google voyait 5 millions de pages et cela croissait de jours en jours… C’est dangereux car votre bon contenu est dilué et les nouvelles pages produit peuvent ne pas être vues avant des semaines… La solution ? Recourir au fichier robots.txt (voir plus loin) ou à la non prise en compte des paramètres d’url configurable depuis le Google Webmaster Tools. Magento est touché par ce problème. Il faut absolument passer par ce correctif.
Je suis consultant indépendant en AdWords et SEO depuis plus de 10 ans. J'ai investi pour le compte de mes clients plus de 3 000 000 € de clics sur Google. Je suis auteur l'auteur du livre Trouvez des Clients avec AdWords. Bonne lecture !
Comment un vendeur de Darty m’a fait vendre 500 000 € de câbles HDMI sur mon site e-commerce !
[PDF 285 pages Gratuit] Trouvez des Clients avec AdWords
[Officiel] les Exigences techniques de Google pour un site
[Test] SEO Quantum, l’outil SEO français pour des contenus (très) optimisés