Tutoriel

Désactiver l’indexation des pages inutiles sur PrestaShop

L’optimisation du référencement naturel (SEO) d’une boutique PrestaShop passe autant par la création de contenu pertinent que par l’exclusion des pages inutiles de l’index de Google. En effet, un site e-commerce qui laisse indexer des pages sans valeur (filtres, résultats de recherche interne, pages de panier, etc.) risque de diluer son SEO et de gaspiller son budget crawl.

Dans ce guide, nous allons voir pourquoi et comment désactiver l’indexation des pages inutiles sur PrestaShop, quelles pages cibler, et quelles méthodes appliquer pour améliorer votre visibilité dans les moteurs de recherche.

Pourquoi désactiver l’indexation des pages inutiles ?

Google alloue à chaque site un budget crawl limité. Si vos robots d’indexation explorent des dizaines de pages sans intérêt, cela réduit la fréquence d’exploration et d’actualisation de vos pages stratégiques (fiches produits, catégories principales).

Voici les principaux risques si vous laissez indexer toutes vos pages PrestaShop :

  • Duplication de contenu : les filtres et paramètres d’URL peuvent générer des centaines de variantes similaires.
  • Dilution du SEO : Google disperse sa valeur entre des pages qui ne devraient pas apparaître dans les résultats.
  • Baisse des performances : un site encombré de pages inutiles peut ralentir l’exploration et pénaliser vos pages prioritaires.

Quelles pages désactiver de l’indexation sur PrestaShop ?

Parmi les pages généralement considérées comme inutiles ou nuisibles au SEO :

  • La page panier (/panier)
  • La page compte client (/mon-compte)
  • Les pages de recherche interne (?s= ou /recherche)
  • Les pages de filtres et de tri (?orderby=, ?id_category=…)
  • Les pages de connexion et d’inscription
  • Les pages de commandes passées ou suivi de livraison

Ces pages sont essentielles pour vos clients, mais elles n’apportent rien en termes de référencement.

Comment désactiver l’indexation des pages inutiles sur PrestaShop ?

1. Utiliser le fichier robots.txt

PrestaShop génère automatiquement un fichier robots.txt. Vous pouvez y ajouter des règles pour bloquer le crawl des robots sur certaines pages.

⚠️ Attention : robots.txt empêche le crawl, mais pas forcément l’indexation si l’URL est découverte par ailleurs.

2. Ajouter des balises meta "noindex"

La méthode la plus fiable consiste à appliquer la directive noindex sur les pages à exclure. Dans le fichier head.tpl de votre thème, repérez :

/hummingbird/templates/_partials/head.tpl
{if $page.meta.robots !== 'index'}
	<meta name="robots" content="{$page.meta.robots}">
{/if}

puis remplacez le code par :

/themes/hummingbird/templates/_partials/head.tpl
{if !empty($page.meta.robots) && $page.meta.robots !== 'index'}
	{* Si une balise robots est forcée manuellement et n'est pas 'index', on l'utilise. *}
	<meta name="robots" content="{$page.meta.robots}">
{else}
	{* --- Logique de désindexation automatique --- *}

	{* 1. Pages à exclure par nature (tunnel, recherche, etc.) *}
	{assign var=disallow_pages value=['search','products-comparison','stores','order','prices-drop','manufacturer','supplier','pagenotfound']}
	{assign var=noindex value=($page.page_name|default:''|in_array:$disallow_pages)}

	{* 2. Si la page n'est pas déjà en noindex, on vérifie les paramètres GET indésirables *}
	{if !$noindex}
		{assign var=bad_keys value=['orderby','orderway','order','product_list_order','product_list_dir','tag','id_currency','search_query','back','n','q','page','p','selected_filters','add','qty','token','noredirect']}
		{foreach $smarty.get as $k => $v}
			{* Si un paramètre nuisible est présent, on passe en noindex et on arrête la boucle *}
			{if $v !== '' && $k|lower|in_array:$bad_keys}
				{assign var=noindex value=true}
				{break}
			{/if}
		{/foreach}
	{/if}

	{* Génération de la balise finale en fonction du flag $noindex *}
	<meta name="robots" content="{if $noindex}noindex,follow{else}index,follow{/if}">
{/if}

Cette règle indique à Google de ne pas indexer la page, tout en continuant à suivre les liens qu’elle contient.

3. Utiliser un module SEO PrestaShop

Si vous ne souhaitez pas modifier le code, plusieurs modules SEO pour PrestaShop permettent de gérer facilement les pages à exclure de l’indexation (balises meta, robots.txt, gestion des redirections, etc.).

4. Surveiller avec Google Search Console

Après vos optimisations, utilisez Google Search Console pour vérifier que vos pages inutiles ne sont plus indexées. L’onglet Pages vous indiquera quelles URL sont exclues et pourquoi.

Bonnes pratiques SEO pour PrestaShop

  • Ne désindexez pas les pages catégories principales ou produits : ce sont vos pages stratégiques.
  • Privilégiez la règle noindex, follow plutôt que noindex, nofollow afin de conserver la transmission du jus SEO.
  • Nettoyez régulièrement vos URLs dynamiques (paramètres, filtres inutiles).
  • Mettez en place un plan de site XML optimisé pour guider Google vers vos pages prioritaires.

Conclusion

Désactiver l’indexation des pages inutiles sur PrestaShop est une étape indispensable pour optimiser le SEO d’une boutique en ligne. En bloquant l’accès aux pages non pertinentes via robots.txt, balises noindex ou modules spécialisés, vous concentrez la valeur SEO sur vos produits et catégories phares.

👉 Résultat : un site plus propre, mieux compris par Google, et une meilleure visibilité de vos pages stratégiques dans les résultats de recherche.

Pour aller plus loin

🚀 Vous voulez aller plus loin techniquement ? Nos formations avancées PrestaShop vous donnent les clés pour développer des boutiques performantes.

Besoin d’un hébergement vraiment pensé pour PrestaShop ?

Nous travaillons avec 772424 — la référence française de l’hébergement e-commerce spécialisé, avec déjà +1200 boutiques PrestaShop accompagnées.

Besoin d'un expert ?

Bloqué à cette étape ? Faites appel à un expert certifié PrestaShop et avancez sereinement.

Chargement...