Débloquer la boîte noire de Google grâce à l'analyse de log
Transcript of Débloquer la boîte noire de Google grâce à l'analyse de log
#seocamp
Débloquons la boite noire des algos de Google avec l’analyse de logs
Par Francois Goube, CEO @Oncrawl
@OnCrawl – @SEMRush #LogsOncrawl
Au programme
1. Pourquoi faire de l’analyse de logs et surtout pour qui ?
2. Quelles données pour bien démarrer l’analyse de logs ?
3. Alternatives Open Source et Solution en SaaS
4. Les 10 clés pour ouvrir la boite noire de Google
5. Q&A
@OnCrawl – @SEMRush #LogsOncrawl
A quoi ressemblent des logs ?
Un serveur web enregistre toutes les requètes qu’il reçoit. Ce sont les logs serveurs ü En général:
/var/log/httpd sous apache
ü Ils permettent : ü D’identifier le trafic SEO ü De voir ce que fait le GoogleBot
@OnCrawl – @SEMRush #LogsOncrawl
Pour qui ?
ü Pour tous !!! ü Audit :
o Diagnostic des pages utiles / inutiles o Zones que Google crawle o Zones que Google ne connait pas
ü Monitoring : o Alertes o Suivi des mise en productions / Optimisations o Attaques
@OnCrawl – @SEMRush #LogsOncrawl
Bien démarrer sur l’analyse de logs ü Savoir où sont vos logs et comment y accéder ü S’assurer d’avoir l’ensemble des logs ü Procéder à des tests de complétude et de validité des
données : 1. Compter les hits de Google et comparer avec la search console
2. Compter les visites depuis Google et comparer avec Analytics
ü Attention aux systèmes de cache !!!
-$ grep “Googlebot” access.log | wc -l
-$ grep “google.fr” access.log | wc -l
@OnCrawl – @SEMRush #LogsOncrawl
Quels outils
ü Outils Open Source ü Kibana ü Kibana by Oncrawl ü Logalize ü Graylog
ü Outils SaaS ü Oncrawl Advanced ü Logs.io ü Kelo.gs ü Qbox AvailableonGithub
@OnCrawl – @SEMRush #LogsOncrawl
Pourquoi utiliser ses logs ?
ü Know what Google did! ü Quelles pages sont crawlées par Google Bot ü Quelles sont mes pages actives ? ü Google rencontre-t-il des erreurs ?
ü Car Google cherche à optimiser ses ressources de crawl
OpBmisezlesressourcesdeGoogleversvos“MONEYPAGES”
@OnCrawl – @SEMRush #LogsOncrawl
Pourquoi utiliser ses logs ? ü Savoir ce que
Google fait
ü Pour comprendre l’impact SEO
@OnCrawl – @SEMRush #LogsOncrawl
Ne pas attendre un message dans GWT
ü Suivez les status codes en temps réel ü Recevez des alertes ü Contrôlez vos MEP
Alertesu)les:ü AugmentaBonanormaledes404ü BaissedunombredepagesrecevantduTraficSEOü …
@OnCrawl – @SEMRush #LogsOncrawl
Savoir ce que Google crawle
ü Combien de pages uniques crawlées ?
ü Nb de nouvelles pages crawlées
ü Fréquence de crawl
#1
@OnCrawl – @SEMRush #LogsOncrawl
Savoir ce que Google aime
ü Pages actives ü Qui reçoivent du trafic SEO
ü Taux de pages actives ü Freshrank
#3
@OnCrawl – @SEMRush #LogsOncrawl
Identifier les freins de votre site
ü Status codes rencontrés par les bots
ü Comment s’est passée ma mise en prod ?
ü Mes pages changent-elles de status ?
#4
@OnCrawl – @SEMRush #LogsOncrawl
Analyser mon impact SEO par groupe de pages ü Pour savoir si mes optimisations
fonctionnent
ü Pour détecter des régressions
#5
@OnCrawl – @SEMRush #LogsOncrawl
Trouver le facteur à optimiser
ü En fonction de votre thématique, l’impact du nombre de mots peut être énorme
#7
@OnCrawl – @SEMRush #LogsOncrawl
Trouver le facteur à optimiser
ü Le nombre de liens est un facteur à ne pas négliger
#7
@OnCrawl – @SEMRush #LogsOncrawl
Trouver le facteur à optimiser
ü Prouvez à l’IT que si le temps de chargement, c’est important ;-)
#7
@OnCrawl – @SEMRush #LogsOncrawl
Mesurer l’impact du contenu dupliqué sur le comportement des bots ü Savez vous planter les canonicals ?
#8
@OnCrawl – @SEMRush #LogsOncrawl
L’impact de l’architecture
ü Êtes vous sûr d’avoir bien organisé votre site?
#9
@OnCrawl – @SEMRush #LogsOncrawl
L’impact de l’architecture
ü Êtes vous sûr d’avoir bien organisé votre site?
#9
@OnCrawl – @SEMRush #LogsOncrawl
Prioriser vos actions
ü Sur quelles pages dois-je me focaliser?
#10
@OnCrawl – @SEMRush #LogsOncrawl
Prioriser vos actions ü Toute hypothèse peut être validée ou
invalidée par des données
ü Plus de 300 metrics à utiliser dans notre data explorer!
#10
@OnCrawl – @SEMRush #LogsOncrawl
La clé est dans le croisement des données
ü A partir des données de crawl… ü Control du balisage HTML ü Qualité des meta ü Analyse du contenu (near duplicates, nb de mots…) ü Popularité des pages (Inrank)
ü … et des données de logs
à Vous ouvrez la boite noire de l’algo de Google! à Pages orphelines à Pages actives / famille à Zones inconnues de Google à Impact de chacune de vos optimisations sur le GoogleBot