Vous aimeriez vous familiariser davantage avec le Web. Vous avez compris que le SEO (Search Engine Optimization ou encore référencement naturel) est un composant essentiel pour la visibilité sur Internet.
C’est pourquoi il est bon de rappeler quelques faits techniques basiques pour alimenter vos connaissances en SEO et pour vous assurer une bonne maitrise du référencement naturel.
1- La vitesse des pages compte Un temps de chargement trop long est un frein considérable pour les utilisateurs mais pas seulement ! La vitesse des pages est un des critères de positionnement de Google. Les résultats de recherche sur mobile sont également influencés par la vitesse de chargement des pages. Des outils Google existent pour auditer son site : PageSpeed Insitghts et Test my site pour les mobiles.
2- Les fichiers robots.txt doivent être bien nommés et bien placés Le fichier doit être nommé en minuscule (robots.txt) pour être reconnu. De plus, les robots ne cherchent ces fichiers qu’à un seul et même endroit : le répertoire principal du site. S’il n’est pas à cet emplacement, les robots estiment qu’il n’y a pas de fichier de ce type sur le site. 3- Les robots ne gèrent pas toujours le scroll infini En utilisant le chargement progressif lorsque l’utilisateur descend sur la page, il faut savoir qu’il est possible que celle-ci ne soit pas totalement indexée car les robots ne pratiquent pas forcément le « infinite scroll ». Il est préférable d’opter pour la numérotation des pages ou d’intégrer replaceState/pushState sur les pages à scroll infini.
4- Google porte peu d’importance à la structure du plan de site Tant qu’il est en XML, la structure du plan de site importe peu à Google : l’organisation générale du site n’affecte pas la façon dont Google le parcourt.
5- Le tag noarchive n’influence pas le positionnement Ce tag est destiné à dire à Google de ne pas afficher la version en cache de la page dans les résultats de recherche. Cependant, cela n’affecte pas le positionnement général du site.
6- Google parcourt généralement la page d’accueil en premier Ce n’est pas une règle, mais en général, Google trouve d’abord la page d’accueil avant d’explorer les autres.
7- Google note différemment les liens internes et externes Un lien qui pointe vers un site tiers et un lien qui pointe vers une autre page du même site n’est pas noté de la même manière.
8- Le suivi des crawls s’effectue sur Google Search Console Il est possible de consulter le nombre de pages que les moteurs de recherche peuvent et veulent parcourir dans un temps donné (ce que l’on appelle le crawl budget). C’est dans la Search Console de Google que vous pourrez trouver cette information.
9- L’interdiction de passage sur les pages sans valeur SEO est judicieux En effet, les pages qui ne présentent pas de valeur SEO n’ont pas à être parcourues par les moteurs de recherche. Le fait de mettre des balises « nofollow » permet de dépenser le crawl budget de manière cohérente et pertinente.
10- Il y a beaucoup de choses à savoir sur les plans de site Les plans de site en XML doivent être encodés en UTF-8, ils ne peuvent pas inclure d’ID de session depuis les URLs, ils doivent contenir moins de 50 000 URLS et ne doivent pas dépasser 50 MB. Un seul fichier XML est recommandé. Par contre, il est possible d’utiliser différents plans de site pour les types de média comme les vidéos, les images ou les actualités.
11- Il est possible de vérifier comment Google voit un site mobile Google a migré vers l’index mobile first. Il est donc important de s’assurer que les pages d’un site fonctionnent bien sur mobile. Avec le test d’optimisation mobile, il est possible de vérifier comment Google perçoit un site sur mobile.
12- Le HTTPS est performant La moitié des résultats disponibles sur la première page de Google contient des sites en HTTPS donc sécurisés. Les sites en HTTP sont maintenant porteurs d’un message d’alerte sur Chrome.
13- La vitesse de chargement doit être entre 2 et 3 secondes Il s’agit du temps de chargement qui permet d’assurer la satisfaction des moteurs de recherche et, surtout, des internautes.
14- Le robot.txt ne suffit pas pour ne pas indexer une page Attention : le fichier robot.txt dit seulement à Google de ne pas parcourir les pages spécifiées mais cela ne veut pas dire que ces dernières ne sont pas indexées. En effet, il faut utiliser une autre méthode comme la protection via un mot de passe ou un tag « noindex » pour qu’une page ne soit pas indexée.
15- Les redirections doivent être maintenues au moins un an Il est recommandé de laisser vos redirections 301 actives au moins un an, surtout pour les pages importantes.
16- Il est possible de désactiver la traduction dans la recherche Avec le tag « notranslate », il est possible de dire à Google de ne pas traduire une page.
Source : Search Engine Land – John E Lincoln
Comments