Comment améliorer son référencement naturel par l’analyse de logs de son site web ?
- Les fichiers de logs, qu’est-ce que c’est ?
- Fichier LOG : comment l’utiliser ?
- Comment faire une analyse de logs ?
- Pourquoi faire une analyse de logs ?
L’analyse des fichiers logs est un composant essentiel d’un audit technique d’un site web. Ces fichiers sont produits par le serveur web. Ils contiennent les enregistrements de toutes les requêtes et données stockées dans le serveur et fournissent les détails sur l’heure, la date auxquelles a été faite la demande, l’IP de l’utilisateur, l’Url demandée, les octets servis etc. L’analyse de ces fichiers peut être utilisée pour l’identification des zones problématiques et leur correction ainsi que l’amélioration des pages essentielles génératrices de revenus. Dans cet article, nous allons faire un tour d’horizon sur l’amélioration de son SEO par l’analyse de logs de son site web.
Les fichiers de logs, qu’est-ce que c’est ?
Le log est une extension de fichier produit d’une façon automatique par le serveur et certains logiciels et systèmes d’exploitation. Le processus se présente comme suit : un agent utilisateur visite une page, le serveur transmet sa requête au serveur sur lequel se trouve l’Url du site web. Le serveur renvoie ensuite la page demandée et enregistre tout ce qui se passe dans ses fichiers de logs. Ces fichiers contiennent ainsi un certain nombre de choses et événements associés au système ou à l’application qui les a créés. Ils permettent de garder une trace des informations spécifiques de toute activité sur le serveur web comme par exemple les résultats d’analyse d’un logiciel antivirus, les fichiers indiqués comme malveillants, les fonctionnalités dans la mise à jour d’un logiciel, les fichiers sauvegardés lors d’un programme de sauvegarde… Ces fichiers contiennent la date, l’heure, le détail de l’événement de ce que l’application juge utile d’écrire. La structure de ces fichiers dépend du serveur utilisé et de ses configurations, mais en général, ces données non filtrées du trafic d’un site web contiennent des attributs communs comme :
- la demande d’adresse IP
- la date et l’heure
- la localisation géographique de l’utilisateur
- la méthode GET/POST
- la requête d’Url
- le code d’état HTTP (200, 400, 301…)
- le système d’exploitation ou le navigateur utilisé
A ces données peuvent s’ajouter :
- le nom de l’hôte
- l’adresse IP du client
- les octets chargés
- le temps passé dans le chargement, et l’exportation du fichier journal WordPress
Fichier LOG : comment l’utiliser ?
Le terme « fichier LOG » vient de l’anglais « log » qui signifie journal de bord. Il a auparavant été utilisé dans le domaine maritime avant d’être repris en informatique. Il définit l’ensemble des données informatiques confidentielles d’un utilisateur sur un serveur.
Différents types de fichier LOG
Le fichier LOG peut se décliner en plusieurs sortes. Il y a les logs applicatifs pour les fichiers via d’une application, les logs systèmes pour les fichiers venant d’un système informatique ou encore les logs de base de données qui viennent des serveurs. Les éléments qu’ils contiennent varient selon les habitudes d’un utilisateur. Pour dire simplement, le fichier LOG retrace l’historique de connexion des internautes. Il peut contenir jusqu’à l’adresse IP.
Les fichiers LOG pour un site plus sécurisé
Les fichiers LOG sont surtout utiles aux webmasters. En effet, selon les données récoltées, il sera plus facile de mettre à jour le site pour davantage de sécurité. Les historiques de connexion permettent de déterminer et de prévenir certaines menaces virtuelles. Les fichiers LOG permettent aussi de déterminer l’origine d’une panne sur un site plus simplement. Ils peuvent donc être des gages de la bonne marche de votre plateforme professionnelle.
Utiliser des logiciels pour les décoder
Même les professionnels ont besoin de logiciel spécialisé pour décorer et pouvoir utiliser le fichier LOG. En ligne, vous avez l’embarras du choix en la matière. Ce peut être par exemple le Pro/ENGINEER ou encore LabVIEW Brinary Datalog, etc.
Comment faire une analyse de logs ?
L’analyse de ces fichiers est utile pour l’optimisation du Seo d’un site. Elle permet de disposer des données qu’on ne peut pas récupérer depuis Google analytics ou Google search console. Pour effectuer cette analyse, on peut télécharger les fichiers log à partir du dossier racine d’un site web. Les données contenues dans ces fichiers sont en texte brut qu’on peut lire avec n’importe quel éditeur de texte comme Notepad. Il est aussi possible de les lire sur un navigateur web en les glissant directement dans la fenêtre du navigateur web en utilisant le raccourci Ctrl+ O pour ouvrir la boite de dialogue permettant de rechercher le fichier Log. Certaines personnes font l’analyse manuellement mais en général les webmasters et référenceurs exportent ces fichiers et les analysent dans Excel. Cependant, s’il s’agit d’un site ayant une volumétrie importante ou ayant des problèmes techniques SEO ou si on n’a pas la capacité de travailler avec ces fichiers par soi-même, il est recommandé d’utiliser un analyseur de fichier logs comme Screamingfrog, Botify, GoAccess, Oncrawl, Splunk, Logmatic.io… pour ne citer qu’eux. Screaming frog donne accès à la version gratuite avec une possibilité de crawl jusqu’à 500 Url et un journal d’événements limité à 1 000 lignes. Pour un petit site, cette quantité est suffisante.
L’utilisation de l’outil est simple et il ne requiert pas de paramétrage particulier après son installation. Pour effectuer une analyse efficace, il faut savoir trier et interpréter les données afin d’apporter une amélioration au niveau SEO du site travaillé. Ces fichiers indiqueront par exemple, les codes de réponses de pages demandées, le contenu, le nombre de robots de recherche… Oncrawl, est un outil SaaS payant et sans engagement. Il fournit des graphiques permettant d’analyser au mieux les données ainsi qu’une analyse de logs open source. La prise en main nécessite cependant des compétences techniques GoAcess quant à lui est un outil dédié pour l’analyse rapide des données Log. Son atout principal est de permettre la consultation des fichiers logs et de les analyser en temps réel sans recourir au navigateur.
Pourquoi faire une analyse de logs ?
La pertinence de toutes les pages d’un site web n’est pas le même. Il y a des pages inutiles ou jamais visitées qui peuvent rétrograder votre positionnement SEO. L’idée est donc de les supprimer ou de refuser leur indexation à l’aide du fichier robot.txt ou de réécrire leur contenu afin d’améliorer son référencement. Parmi ces pages peu visitées ou jamais visitées par les robots des moteurs de recherche, on retrouve des pages produisant un code d’erreur 404, de Thin content, de contenus dupliqués, des pages du back-office etc. Par exemple, les Urls contenant une ressource Javascript, CSS ou une image et qui n’apportent pas beaucoup de valeur pour le référencement peuvent être traités en noindex.
En optimisant les fichiers robot.txt et sitemap, on fait peut ainsi faire d’une pierre deux coups : alléger la tâche des robots de Google et optimiser son SEO. En fait, l’analyse de ces fichiers aide à comprendre comment les moteurs de recherche parcourent un site web et quel est l’impact de ces visites sur son SEO. Ces données sont réellement utiles pour l’amélioration du comportement d’exploration des moteurs de recherche et des performances de son site web en matière de référencement. Grâce à ces données, il est possible de mettre en place des améliorations appropriées comme :
- la correction des erreurs d’accessibilité rencontrées au cours de l’exploration
- l’identification des domaines où le crawl présente des lacunes
- l’identification des pages les plus actives
- la découverte des pages dont Google n’a aucune connaissance
- l’amélioration du nombre de visites d’un site web
- l’amélioration du trafic des pages les plus précieuses
Par ailleurs, ces fichiers permettent aussi de déterminer le nombre de crawl du bot ou les nombres de requêtes réalisés par Googlebot, Bingbot, Yahoo etc. sur une période donnée. Le volume de crawl indique la fréquence de la visite de son site web. L’analyse fait aussi voir si l’ajout de contenu a augmenté le nombre de visites d’un robot et s’il y a une baisse soudaine de leur fréquence d’exploration. Ce dernier cas pourrait avertir sur un éventuel problème technique qui bloque ces visites. L’analyse de ces fichiers permet aussi de repérer les erreurs de codes 4xx ou 5xx qui compromettent le référencement. Un trop grand nombre de codes 4XX la visite d’un crawler. Elle permet aussi de découvrir quand Google a parcouru une page particulière la dernière fois. Il faut retenir que si les robots rencontrent trop de facteurs négatifs sur un site web, ils espaceront leurs visites. Si on a ainsi un contenu frais qu’on souhaite être indexé par Google, il peut prendre du temps à l’indexer.
L’analyse de ces fichiers peut faire passer son référencement à un niveau plus performant. Mais cela nécessite les compétences poussées d’un référenceur SEO. Si vous avez des questions ou vous souhaitez faire progresser votre site dans son classement sur les moteurs de recherche, n’hésitez pas à nous contacter.