Débutant en SEO ? Voici 16 faits techniques à connaitre !

Vous aimeriez vous familiariser davantage avec le Web. Vous avez compris que le SEO (Search Engine Optimization ou encore référencement naturel) est un composant essentiel pour la visibilité sur Internet.

C’est pourquoi il est bon de rappeler quelques faits techniques basiques pour alimenter vos connaissances en SEO et pour vous assurer une bonne maitrise du référencement naturel.

1- La vitesse des pages compte
Un temps de chargement trop long est un frein considérable pour les utilisateurs mais pas seulement ! La vitesse des pages est un des critères de positionnement de Google. Les résultats de recherche sur mobile sont également influencés par la vitesse de chargement des pages. Des outils Google existent pour auditer son site : PageSpeed Insitghts et Test my site pour les mobiles.

2- Les fichiers robots.txt doivent être bien nommés et bien placés
Le fichier doit être nommé en minuscule (robots.txt) pour être reconnu.  De plus, les robots ne cherchent ces fichiers qu’à un seul et même endroit : le répertoire principal du site. S’il n’est pas à cet emplacement, les robots estiment qu’il n’y a pas de fichier de ce type sur le site.

3- Les robots ne gèrent pas toujours le scroll infini

En utilisant le chargement progressif lorsque l’utilisateur descend sur la page, il faut savoir qu’il est possible que celle-ci ne soit pas totalement indexée car les robots ne pratiquent pas forcément le « infinite scroll ». Il est préférable d’opter pour la numérotation des pages ou d’intégrer replaceState/pushState sur les pages à scroll infini.

4- Google porte peu d’importance à la structure du plan de site
Tant qu’il est en XML, la structure du plan de site importe peu à Google : l’organisation générale du site n’affecte pas la façon dont Google le parcourt.

5- Le tag noarchive n’influence pas le positionnement
Ce tag est destiné à dire à Google de ne pas afficher la version en cache de la page dans les résultats de recherche. Cependant, cela n’affecte pas le positionnement général du site.

6- Google parcourt généralement la page d’accueil en premier
Ce n’est pas une règle, mais en général, Google trouve d’abord la page d’accueil avant d’explorer les autres.

7- Google note différemment les liens internes et externes
Un lien qui pointe vers un site tiers et un lien qui pointe vers une autre page du même site n’est pas noté de la même manière.

8- Le suivi des crawls s’effectue sur Google Search Console
Il est possible de consulter le nombre de pages que les moteurs de recherche peuvent et veulent parcourir dans un temps donné (ce que l’on appelle le crawl budget). C’est dans la Search Console de Google que vous pourrez trouver cette information.

9- L’interdiction de passage sur les pages sans valeur SEO est judicieux
En effet, les pages qui ne présentent pas de valeur SEO n’ont pas à être parcourues par les moteurs de recherche. Le fait de mettre des balises « nofollow » permet de dépenser le crawl budget de manière cohérente et pertinente.

10- Il y a beaucoup de choses à savoir sur les plans de site
Les plans de site en XML doivent être encodés en UTF-8, ils ne peuvent pas inclure d’ID de session depuis les URLs, ils doivent contenir moins de 50 000 URLS et ne doivent pas dépasser 50 MB. Un seul fichier XML est recommandé. Par contre, il est possible d’utiliser différents plans de site pour les types de média comme les vidéos, les images ou les actualités.

11- Il est possible de vérifier comment Google voit un site mobile
Google a migré vers l’index mobile first. Il est donc important de s’assurer que les pages d’un site fonctionnent bien sur mobile. Avec le test d’optimisation mobile, il est possible de vérifier comment Google perçoit un site sur mobile.

12- Le HTTPS est performant
La moitié des résultats disponibles sur la première page de Google contient des sites en HTTPS donc sécurisés. Les sites en HTTP sont maintenant porteurs d’un message d’alerte sur Chrome.

13- La vitesse de chargement doit être entre 2 et 3 secondes
Il s’agit du temps de chargement qui permet d’assurer la satisfaction des moteurs de recherche et, surtout, des internautes.

14- Le robot.txt ne suffit pas pour ne pas indexer une page
Attention : le fichier robot.txt dit seulement à Google de ne pas parcourir les pages spécifiées mais cela ne veut pas dire que ces dernières ne sont pas indexées. En effet, il faut utiliser une autre méthode comme la protection via un mot de passe ou un tag « noindex » pour qu’une page ne soit pas indexée.

15- Les redirections doivent être maintenues au moins un an
Il est recommandé de laisser vos redirections 301 actives au moins un an, surtout pour les pages importantes.

16- Il est possible de désactiver la traduction dans la recherche
Avec le tag « notranslate », il est possible de dire à Google de ne pas traduire une page.

Source : Search Engine Land – John E Lincoln