Un outil d’analyse de logs et de performance SEO
BeeBOT est un outil d’agrégation de données concentré autour de l’analyse du comportement des robots sur les sites web. Les données récoltées sont issues de la navigation technique de l’outil sur le site et des logs d’exécution du serveur web. Il permet aux responsables SEO d’améliorer son référencement naturel grâce à l’analyse du comportement des crawlers.
Les serveurs Web ont des historiques des traces laissées par le crawler (via les fichiers de log). Ces traces sont claires et indiscutables, contrairement à toutes les tentatives d’analyse de bonne qualité ou non des algorithmes d’indexation de Google et des autres robots. C’est pour ces raisons qu’il est intéressant d’analyser ces fichiers de log pour aider à orienter la stratégie SEO.
Commandité par Bee4, nous sommes intervenus dans le pilotage et la définition des besoins mais aussi dans l’architecture et le développement de la solution.