Bien utiliser les Search Consoles - Seocampus 2016

55
Bien utiliser les Search Consoles

Transcript of Bien utiliser les Search Consoles - Seocampus 2016

Bien utiliser les Search Consoles

Qui suis-je ?Sébastien BultéConsultant SEO depuis 8 ansManager du pôle SEO chez Résonéo @meuhsli | [email protected]

QuellesSearch Consoles ?

Bing Webmaster

Tools

Google Search

Console

Baidu Webmaster

Tools

Yandex.Webmaster

1.Mettre en place des alertesPour surveiller l’état de son site

AlertesGoogle Search Console

AlertesGoogle Search Console

▪ Modification des sitelinks▪ Augmentation d'erreurs 404▪ Augmentation d'erreurs serveur▪ Augmentation de pages non suivies▪ Gros changement de trafic▪ Augmentation de pages bloquées▪ Erreur hreflang ▪ Impossible d'acceder au site▪ Mise à jour de WordPress disponible▪ Logiciels malveillants▪ etc

Transférer Les messages à l’équipe SEO

Groupe (mailling list)

Avantage : attention aux droits partagés directement dans la Search Console

AlertesBing Webmaster Tools

AlertesYandex.Webmaster

2.Une vue plus fineEn découpant les comptes

Une vue plus fineEn découpant par sous répertoires

Une vue plus fineEn découpant par sous répertoires

▪ Paramètres (Ciblage international, partage de compte, etc)

▪ Liens externes

▪ Analyse de la recherche

▪ Crawl / Indexation

▪ Erreurs

▪ Etc

3.Surveiller son profil de lienPour traquer les liens nocifs

Surveiller son profil de liensPour traquer les liens nocifs

Un export des sources de liensTriées par date de découverte

Avantage : bien qu’échantillonné, nous pouvons extraire un grand nombre de liens

Surveiller son profil de liensTrier et organiser ses backlinks

Source : Vincent Lahaye (http://www.jambonbuzz.com/focus/trier-et-organiser-le-rapport-de-backlinks-gwt-2012-07-29)

Recouper les données avec celles de Bing

Avantage : Bing fournit les ancresdes liens

Recouper les données avec celles de Yandex

Avantage : Possibilité de filtrer les urls de destination avec une étoile (*)

4.Une alternative au (Not Provided)Pour retrouver une vison par mots-clés

Retrouver les mots clés dans Le rapport d’analyse de la recherche

Mais… limité à 1 000 mots clés et sur les 3 derniers mois

Bientôt sur une plus longue périodeQue sur les 3 derniers mois ?

Source : Zineb Ait Bahajji (https://twitter.com/Missiz_Z/status/699956189740797953)

Lier son compte avec Google AnalyticsPour faire sauter la limite des 1 000 résultats

Lier son compte avec Google AnalyticsDes dimensions limitées aux requêtes et pays

Des dimensions limitées aux requêtes et paysMais pas que, avec cette astuce...

Remplacer wmt_url_impression.countryId par wmt_url_impression.url dans l’urlSource : Paul Colombo (http://poloseo.tumblr.com/)

Lier son compte avec Google AnalyticsPour archiver facilement l’historique

Jusqu’à 6 mois avecBing Webmaster Tools

5.Optimiser son taux de clicIdentifier les pistes pour améliorer son CTR

Optimiser sonTaux de clic

Optimiser sonTaux de clic

▪ Facteurs influençables▫ TITLE▫ Meta description▫ Rich Snippets ▫ Url positionnée

▪ Facteurs externes▫ Onebox / Direct answer▫ Knowledge graphe▫ Google Shopping / 4 ads▫ Requête “marque”

Optimiser sonTaux de clic

Mesurer l’impact sur votre CTRDe l’évolution des serps

Évolution du CTR :- Avant/Après le 20 février- Requêtes hors marque- Device = Desktop- Par type de position- Par importance des requêtes

6.Surveiller son indexationConnaître avec précision le nombre de pages indexées

Surveiller son indexation De base une vue très macro

Surveiller son indexation avec les sitemaps XML

Surveiller son indexation par type de contenu

Le découpage par répertoiresdans Bing Webmaster Tools

7.Influencer le crawl Des pages de son site

Forcer le crawl de ses pages

Avantage : Pouvoir envoyer une page listant d’autres urls à indexer

Forcer le crawl de ses pagesSoumettre en masse dans Bing

Influer sur le taux de crawl

Actif pendant 90 jours

Influer sur le taux de crawl

Estimer sonbudget de crawl (par défaut)

Petit site< 5 000 pages

Taille moyenne 10 000 - 100 000 pages

Gros site> 200 000 pages

Estimer sonbudget de crawl (maximal)

Petit site< 5 000 pages

Taille moyenne 10 000 - 100 000 pages

Gros site> 200 000 pages

Taux de crawl VS Pages indexées

8.Tester son fichier robots.txtAvant chaque modification

Tester son fichierRobots.txt

9.Détecter les sources de duplication A l‘intérieur de son site

Détecter les sources de duplication interne

Détecter les sources de duplication interne

10.Utiliser les API Pour automatiser vos actions

Utiliser les APIAvec Screaming Frog

Utiliser les APIAvec SEO Tools For Excel

▪ Analyse de la recherche

▪ Sitemap status

▪ Sitemaps

▪ Nb d’erreurs d’erreurs

▪ Échantillon d’erreurs

Utiliser les APIAvec Google Sheets

▪ Backup automatique

▪ Export de 5 000 lignes

▪ Filtres multiples (pays,

device, url, kw)

https://chrome.google.com/webstore/detail/search-analytics-for-shee/ieciiohbljgdndgfhgmdjhjgganlbncj

#seocamp#seocampus#seo

Merci !Des questions ?@meuhsli [email protected]://www.sebastien-bulte.fr