Rédigé le 17/3/2026
Modifié le 19/3/2026

Noindex : quand et comment exclure une page des résultats Google

Définition

La directive noindex est une instruction que vous donnez à Google pour lui demander de ne pas inclure une page dans ses résultats de recherche. Ce n'est pas un outil défensif : c'est un outil de précision pour protéger la qualité globale de votre site et concentrer l'autorité sur les pages qui méritent de être vues.

Définition du noindex

La directive noindex est une instruction SEO technique qui indique aux moteurs de recherche de ne pas intégrer une page à leur index. Elle se place dans la balise <meta name="robots" content="noindex"> dans le <head> de la page, ou dans l'en-tête HTTP X-Robots-Tag: noindex. Une page en noindex peut être crawlée par Googlebot, mais elle ne sera pas affichée dans les résultats de recherche et ne contribue pas à la qualité générale du site.

Pourquoi et quand utiliser le noindex en 2026

Le noindex n'est pas uniquement un outil de sécurité : c'est un levier de gestion de la qualité globale du site. Google évalue la qualité d'un site en partie via la proportion de pages à faible valeur dans son index. Un site avec beaucoup de pages minces, dupliquées ou inutiles voit sa qualité globale pénalisée. En noindexant ces pages, vous concentrez le signal de qualité sur vos pages importantes. Les pages typiquement à exclure : pages de filtres e-commerce, de pagination, de tags, résultats de recherche interne, pages de remerciement, pages de connexion, pages avec contenu dupliqué.

Ce qu'on observe chez Vydera sur le noindex mal utilisé

L'erreur la plus fréquente en audit : des noindex appliqués par erreur sur des pages stratégiques. Cela arrive souvent lors de migrations, de changements de templates ou de mises à jour de plugins SEO. La page reste accessible aux utilisateurs, mais Google ne la montre plus dans ses résultats. Le problème : le trafic chute progressivement sans message d'erreur apparent. Une vérification des directives robots sur les pages clés est une étape indispensable dans tout audit SEO.

Comment implémenter et vérifier le noindex

  • Implémentez le noindex via la balise meta robots dans le head de la page ou via votre outil SEO (Yoast, RankMath, Webflow SEO settings).
  • Vérifiez vos directives via l'outil d'inspection d'URL dans Google Search Console : il indique si une page est indexée ou non et pourquoi.
  • Ne confondez pas noindex avec Disallow dans robots.txt : Disallow bloque le crawl mais peut laisser la page indexée. Noindex autorise le crawl mais empêche l'indexation. Pour exclure proprement, utilisez noindex (et non Disallow).

Sources et références

Aller plus loin

Les directives robots font partie de tout audit technique. Retrouvez nos analyses sur le Vydera Lab ou contactez-nous pour un audit de la couverture d'index de votre site.

Non, pas immédiatement. Google doit d'abord recrawler la page pour détecter la nouvelle directive noindex, puis la retirer de son index. Ce processus peut prendre de quelques jours à plusieurs semaines selon la fréquence de crawl de votre site. Pour accélérer le processus, vous pouvez utiliser l'outil d'inspection d'URL dans Google Search Console et demander un recrawl.

Techniquement, une page en noindex peut encore être crawlée, ce qui signifie que les liens qu'elle contient peuvent être suivis par Googlebot. Mais une page dé-indexée a une autorité réduite : elle ne recevra plus de trafic organique, donc pas de signal d'engagement. En pratique, les pages en noindex transmettent peu de valeur. Si vous voulez conserver les liens d'une page sans l'indexer, c'est une situation qui mérite réflexion.

Ce sont deux directives différentes qui agissent à des étapes différentes. Disallow dans robots.txt empêche Googlebot de crawler la page : il ne peut pas la lire. Noindex dans la balise meta autorise le crawl mais indique de ne pas indexer. La combinaison des deux est parfois utilisée, mais elle est contre-productive : si Google ne peut pas crawler la page, il ne peut pas lire la directive noindex et peut quand même l'indexer depuis des liens externes.

Non par défaut. La directive noindex est spécifique aux moteurs de recherche (Google, Bing). Les robots IA comme GPTBot, PerplexityBot ou ClaudeBot ne respectent pas la balise meta noindex : ils se basent sur le fichier robots.txt. Pour exclure vos contenus des systèmes RAG des LLMs, vous devez ajouter des règles spécifiques par User-Agent dans votre robots.txt.