Accueil / Référencement / Faut-il désindexer les pages lentes de votre site pour obtenir un meilleur positionnement ?

Faut-il désindexer les pages lentes de votre site pour obtenir un meilleur positionnement ?

Voici une vidéo (en anglais) ou Matt Cutts nous éclaire sur le fait d’interdire ou non l’indexation des pages les plus « lentes » de nos sites.

Vous avez peut-être voulu désindexer les pages peu rapides afin d’améliorer le temps de chargement global de votre site, et par conséquent votre positionnement. Cela ne sert à rien (selon Matt Cutts).

Le résumé en français sous la vidéo.

Matt est d’avis de laisser Google indexer toutes les pages que vos visiteurs peuvent visiter.

Selon lui, moins d’une recherche sur cent est affectée par le mécanisme qui spécifie qu’une page plus lente sera moins bien classée.

Il simplifie sa pensée en allant jusqu’à dire que ce sont donc moins d’un site sur mille qui sont affectés par cette pénalisation.

Si vous pensez faire partie de ce petit pourcentage, ce ne sont pas une ou deux pages qui vont changer la donne.

Dans tous les cas, vous devez penser à l’expérience utilisateur. Qui souhaite encore attendre plus de 8, 9, 10 ou 20 secondes pour afficher un contenu …

Vos visiteurs n’attendront pas aussi longtemps et iront voir ailleurs. Essayez de mettre en place un système de cache ou essayez de retravailler votre site afin d’accélérer son chargement.

Si votre site est globalement rapide, vous n’avez pas à vous inquiéter pour quelques pages plus lentes que les autres. Vous n’avez donc pas à les désindexer.

Personnellement, je pense que la désindexation n’est pas une bonne arme pour combattre des délais de chargement très longs. Il vaut mieux rechercher des solutions en amont.

Voir aussi

Les outils du référenceur

Tout référenceur ne peut travailler efficacement qu'avec de bons outils. Voici ma propre sélection personnelle.

5 commentaires

  1. Hello, donc j'irais plus loin. A savoir non seulement désindexer ça ne sert à rien, mais en plus c'est stupide.
    Pourquoi priver un internaute d'une page d'entrée pertinente? Il est nettement plus judicieux de résoudre les problème de lenteurs. Tout le monde y gagne, Google bot,l'internaute et notre référencement.
    Comme dit ailleurs le temps de chargement ne dois pas être pris isolément mais dans sa globalité, c'est à dire avec ces conséquences.
    D'un point de vue moteur: le bot passe plus de temps sur cette page -> en crawle donc un moins grand nombre-> potentiel problème d'indexation ou de vitesse d'indexation
    d'un point de vue naute: lenteur-> fuite du visiteur -> augmentation du tx de rebonds -> baisse du nombre de pages vues-> mauvais signaux envoyés à GG

  2. Tout à fait d'accord avec RaphSEO désindexer un contenu qui met trop de temps à charger est tout simplement stupide ! !!

    Résoudre les problème de lenteur est la meilleure solution. Se contenter d'optimiser son site juste pour le référencement est une erreur de plus en plus répandue. On optimise à tout va mais on oublie l'essentiel le client !!
    Et cela vaut pour tout les points techniques du SEO pas seulement le temps de chargement. Il vaut mieux un site moins bien optimisé pour Google mais plus pensé pour le client pour qu'il reste plus longtemps et recommande ce site à son réseau. On en le dira jamais assez mais
    la communauté dans le web est très puissante pratiquement aussi puissante que les backlinks.

  3. emile@locations en france

    il est vrai que je me suis posé la question concernant certaines pages de mon site (voir ma signature) qui listent un grand nombre de villes et pour lesquelles le temps de chargement est beaucoup plus lent.. grosses requêtes SQL obligent.. certaines d'entres elles mettent plus de 10 secondes à se charger ! mais j'ai tout de même pris l'initiative de les laisser crawlable par google.

  4. Je ne peux que rejoindre RaphSEO et Mikiweb… Le meilleur moyen pour que Google ne pénalise pas les pages lentes est de corriger l'origine du problème : un script qui tourne dans le vide, des photos trop lourdes, un code source avec trop de code et pas assez de contenu, etc.
    C'est encore plus valable dans le cas où de nombreuses pages sont lentes : en général, si une page est lente, les autres le sont aussi et c'est donc un problème en profondeur qu'il y a à régler.
    La désindexation d'une page me semble être qu'une simple rustine, alors qu'en changeant la roue on roule beaucoup mieux !

  5. Au jeu de la rapidité, les sites en html pur ou ne disposant pas d'un outil de gestion de contenu (CMS) sont toujours plus rapides.
    Même avec un cache élaboré, il est souvent difficile d'atteindre des performances équivalentes.
    Dans la catégorie des sites en html pur, il va y avoir beaucoup de sites contenant une réalisation basique voir démodée. Il est heureux que ce critère ne soit pas déterminant car ce serait un retour en arrière dans la mise en forme des contenus.