Vos pages indexées diminuent ? On vous explique pourquoi et comment y remédier

Avoir vos pages indexées par Google (et d’autres moteurs de recherche) est essentiel. Les pages qui ne sont pas indexées ne peuvent être classées dans les résultats de recherche.

Comment voyez-vous le nombre de pages que vous avez indexées ? Vous pouvez

– Utiliser le « site:nomdedomaine.fr » comme requête Google

– Vérifier le statut de vos XML Sitemap dans Google Search Console

– Vérifier le statut général de votre indexation

Chacune de ces méthodes vous donnera des nombres de pages différents, mais pourquoi sont-ils différents ?

Pour l’instant, parlons simplement d’analyser une diminution du nombre de pages indexées par Google.

Si vos pages ne sont pas indexées, cela pourrait vouloir dire que Google n’aime pas votre page ou ne peut pas l’explorer facilement. Par conséquent, si votre nombre de pages indexées commence à diminuer, cela pourrait être dû au fait que :

– Vous avez été frappé par une pénalité Google

– Google pense que vos pages ne sont pas pertinentes

– Google ne peut pas parcourir vos pages

Voici quelques conseils sur la façon de diagnostiquer et résoudre le problème de la diminution du nombre de pages indexées.

1- Les pages sont-elles correctement chargées ?

Assurez-vous qu’elles disposent du bon code de statut de réponse (200) HTTP.

Le serveur a-t-il eu des temps d’arrêt fréquents ou longs ? Le domaine a-t-il récemment expiré et a-t-il été renouvelé récemment ?

Élément d’action

Vous pouvez utiliser un outil de vérification de statut de réponse HTTP gratuit pour déterminer si le bon statut est présent. Pour les sites importants, des outils d’exploration typiques tels que Xenu, DeepCrawl, Screaming Frog ou Botify peuvent les tester.

Le code de statut correct est 200. Parfois, des erreurs de 3xx (sauf les 301), 4xx ou 5xx peuvent apparaître ; aucun de ces codes n’est bon pour les URLs que vous souhaitez indexer.

2- Vos URLs ont-elles changé récemment ?

Parfois, une modification du CMS, de la programmation back-end ou des paramètres du serveur qui entraîne une modification du domaine, du sous-domaine ou du dossier peut donc modifier les URLs d’un site.

Les moteurs de recherche peuvent se souvenir des anciennes URL mais, s’ils ne redirigent pas correctement, beaucoup de pages peuvent être désindexées.

Élément d’action

Avec un peu de chance, une copie de l’ancien site peut encore être visité d’une manière ou d’une autre pour prendre note de toutes les anciennes URL afin que vous puissiez recenser les redirections 301 vers les URLs correspondantes.

3- Avez-vous résolu les problèmes de contenu dupliqué ?

Résoudre le problème du contenu dupliqué implique souvent la mise en place de balises canonical, de redirections 301, de balises Meta noindex ou de « disallows » dans robots.txt. Tout cela peut entraîner une diminution des URLs indexées.

Il s’agit ici d’un exemple où la diminution des pages indexées pourrait être une « bonne chose ».

Élément d’action

Comme cela est bon pour votre site, la seule chose que vous avez besoin de faire est de vérifier que c’est réellement la cause de la diminution des pages indexées.

4- Vos pages répondent-elles correctement ?

Certains serveurs ont des restrictions de bande passante en raison du coût associé avec une bande passante plus importante ; Ces serveurs devront peut-être être mis à niveau. Parfois, le problème est lié au matériel et peut être résolu en améliorant le traitement ou la limitation de mémoire du serveur.

Certains sites bloquent les adresses IP lorsque les visiteurs accèdent à trop de pages à une certaine fréquence. Ce paramétrage est un moyen strict d’éviter les tentatives de piratage DDOS, mais cela peut également avoir un impact négatif sur votre site.

En règle générale, cela est surveillé dans un second paramétrage d’une page et si le seuil est trop bas, le démarrage normal du moteur du moteur de recherche peut atteindre le seuil et les robots ne peuvent pas explorer le site correctement.

Élément d’action

S’il s’agit d’une limitation de bande passante du serveur, il pourrait être intéressant de mettre à niveau le service.

S’il s’agit d’un problème de traitement/mémoire du serveur, mis à part la mise à niveau du matériel, vérifiez si vous avez une quelconque méthode de mise en cache du serveur, ce qui donnera moins de stress à ce dernier.

Si un logiciel anti-DDOS est en place, modifiez les paramètres ou la liste blanche Googlebot pour ne pas être bloqué tout le temps. Attention, il existe de faux Googlebots ; assurez-vous de détecter googlebot correctement. Détecter Bingbot a une procédure similaire.

5- Les robots des moteurs de recherche voient-ils votre site différemment ?

Parfois, ce que les robots des moteurs de recherche voient est différent de ce que nous voyons.

Certains développeurs développent des sites d’une manière sans connaître les implications SEO.

Occasionnellement, un CMS favori sera utilisé sans vérifier s’il est compatible avec les moteurs de recherche.

Il arrive aussi que le site web a été corrompu par des hackers, qui font apparaître une page différente sur Google pour mettre en avant leurs liens cachés ou couvrir les redirections 301 vers leur propre site.

La pire situation serait les pages qui sont infectées par certains types de logiciels malveillants que Google désindexent automatiquement la page immédiatement une fois détectée.

Élément d’action

L’utilisation de la fonctionnalité de récupération et de rendu de Google Search Console est la meilleure façon de voir si Googlebot voit le même contenu que vous.

Vous pouvez également essayer de traduire la page dans Google Translate, même si vous n’avez pas l’intention de traduire la langue ou de vérifier la page en cache de Google, mais il existe également des solutions pour contenir encore le contenu derrière elles.

Les pages d’index ne sont pas utilisées comme KPI typiques

Les principaux indicateurs de performance (KPI), qui aident à mesurer le succès d’une campagne SEO, tournent souvent autour du trafic et du classement de la recherche organique. Les KPI ont tendance à se concentrer sur les objectifs d’une entreprise, qui sont liés aux revenus.

Une augmentation de pages indexées peut augmenter le nombre de mots-clés sur lesquels vous pouvez être classés pour pouvoir générer des profits plus élevés. Cependant, l’objectif de regarder les pages indexées est principalement pour voir si les moteurs de recherche sont capables d’explorer et indexer correctement vos pages.

Rappelez-vous, vos pages ne peuvent pas être classées lorsque les moteurs de recherche ne peuvent pas les voir, les explorer ou les indexer.

Une diminution des pages indexées n’est pas toujours mauvaise

La plupart du temps, une diminution des pages indexées peut être associée à une mauvaise chose, mais une correction de contenu dupliqué, un contenu faible ou un contenu de mauvaise qualité pourrait également entraîner une diminution du nombre de pages indexées, ce qui est une bonne chose.

Découvrez comment évaluer votre site en examinant ces cinq raisons possibles pour lesquelles vos pages indexées diminuent.

Source : Search Engine Journal – Benj Arriola