Sommaire du billet
- Un problème de tracking analytics ?
- Une histoire de saisonnalité ou de tendance de recherches ?
- Accessibilité du contenu et crawlabilité ?
- Un problème d’indexation ?
- Une erreur de configuration dans Google Webmaster Tool ?
- Un problème de sécurité ou hacking de votre site ?
- Une pénalité manuelle ?
- Une mise à jour des algo de Google ?
Comme beaucoup je mets des articles en brouillon en me disant « dès que j’ai 5 minutes je le rédige ». L’un d’eux s’appelait guide d’identification d’une perte de trafic. Et puis hier je vois passer whymywebtrafficdropped.com . Ma 1ère réaction a été « ne jamais remettre à demain ce qu’on peut faire le jour même ». Et c’est encore plus vrai dans le milieu du web et SEO où tout va très vite.
Au lieu de simplement mettre mon brouillon à la poubelle, j’ai contacté @aleyda qui n’est autre que l’auteur de ce très bon petit site. D’ailleurs je vous recommande vivement de la suivre, c’est une pointure au niveau SEO international qui plus est charmante et très sympathique. Je lui est pour le coup demandé l’autorisation de reprendre son contenu pour l’adapter à la sauce française et y apportant aussi une petite touche personnelle. Elle a accepté sans aucune hésitation, alors un grand merci à toi Mlle Aleyda Solis 😉
En jetant un œil à vos statistiques de trafic organique ces dernières semaines vous avez constaté une chute ? Ne paniquez pas et regardez plutôt cette liste qui pourra vous aider à identifier les causes possibles.
Un problème de tracking analytics ?
Commencez d’abord par vérifier si la perte de trafic est généralisée ou si elle concerne simplement une partie de votre site. Si la perte est générale, vérifiez que votre site est bien en ligne et qu’il fonctionne correctement. Vous pouvez par exemple regarder dans Google Webmaster Tool les messages relatifs à votre site et la partie « erreurs d’exploration ».
Ensuite vérifiez bien que vous utilisez le bon code de tracking et qu’il est bien implanté partout sur votre site. Pour cela soit vous pouvez afficher le code source soit utilisez par exemple screaming frog seo en allant dans Configuration -> Custom et renseigner votre code Google analytics de la forme UA-8135123-4
Je vous recommande aussi de consulter la documentation officielle de google sur la vérification de la configuration du code analytics de votre site web.
Une histoire de saisonnalité ou de tendance de recherches ?
Vérifiez si la baisse est due à la saisonnalité ou un changement des tendances de recherches avec:
- Vérifiez si votre baisse de trafic organique ne vient pas d’une perte de positionnement sur vos mots clés. Si vous n’utilisez pas de logiciel d’analyse de positionnement, vous pouvez vous orienter du côté des « requêtes de recherches dans Google Webmaster Tool » Trafic de recherche -> Requêtes de recherche. Vous pouvez aussi trouver ces informations avec Semrush par exemple.
- Comparez votre période de trafic analysée à la même de l’année précédente directement dans google analytics pour voir si cela coïncide.Si vous n’utilisez pas GGA vous pouvez utiliser des outils tiers comme Google Trends ou encore Google Keyword Planner qui vous indiqueront les variations de recherches en fonction des périodes de l’année.
Accessibilité du contenu et crawlabilité ?
Vérifiez si les pages de votre site et son contenu sont accessibles à la fois aux utilisateurs et à Google Bot et si votre perte de trafic / ranking est généralisée ou cantonnée à une section de votre site avec:
- vérifiez que vous ne bloquez pas l’accès de votre site (ou la section concernée par la perte de visiteurs) à Google Bot avec votre fichier robots.txt. Vous pouvez utilisez l’outil de test du fichier robots.txt dans GWT.
- Vérifiez dans la section Exploration -> Erreurs d’exploration de Google Webmaster Tool si Google n’a pas trouvé un grand nombre d’erreurs de site (Serveur, DNS) ou d’URLs
Naviguez directement sur les pages de votre site pour vérifier qu’elles soient bien accessibles, non redirigées vers d’autres pages et qu’elles renvoient bien le status code 200.Pour cela, vous pouvez le faire avec le navigateur chrome et l’extension « Redirect Path ». Screaming Frog peut aussi vous aider avec l’onglet « responses Codes » et la colonne « Status Code »
- Simulez un crawl et rendu de page par Google bot (desktop et mobile) avec la section « Explorez comme Google » dans GWT (Exploration -> Explorez comme Google). Faites le sur vos pages les plus importantes et / ou celles qui ont connu une chute de trafic ou de postionnement. Vous pouvez là aussi le faire avec des crawlers comme Screaming Frog et DeepCrawl.
- Vérifiez également vos logs serveur pour trouver de potentiels problèmes de crawl sur les zones touchées. Kibana, Splunk ou Botify log analyzer pourront vous aider à cela.
Un problème d’indexation ?
Vérifiez que Google indexe bien correctement votre site et tout spécialement les pages qui ont perdu du trafic ou des positions.
Pour cela utilisez l’opérateur Google « site: » Regardez également dans GWT la section « index Google -> Etat de l’indexation » afin de vérifier si votre site ne connait pas une baisse non légitime de pages indexées.
Si vos pages ne sont pas indexées
- Vérifiez si vous n’avez pas par erreur désindexer vos pages en ajoutant un noindex dans vos meta tags ou via le X-robots-tag cela vous évitera de crier à la pénalité. Pour cela, une fois encore screaming frog ou un autre crawler sera votre ami.
- Vérifiez si vous n’avez pas fait une erreur de canonicalisation de vos URLs dans la section head de votre html, dans votre sitemap ou les http headers. Jetez aussi un oeil aux 5 erreurs fréquentes sur la balise canonical ça peut toujours servir.
- Vérifiez aussi que vous (ou quelqu’un d’autre) n’avez pas demandé à supprimer ces pages dans la section Index Google -> Url à supprimer dans Google webmaster Tool
Si vos pages sont indexées
Vérifiez la version en cache de votre page (surtout avec la fonction texte seul) pour vous assurez que Google identifie et voit bien correctement votre contenu. j’en profite pour vous dire que si vous souhaitez vérifier vos dates de cache, le plugin scrapebox Google Cache Extractor fait très bien le job 😉
Une erreur de configuration dans Google Webmaster Tool ?
Passez en revue toutes les modifications de configurations que vous auriez pu faire ces derniers jours / semaines dans GWT:
- un mauvais choix de configuration des paramètres d’URL (Exploration -> Paramètres d’URL)
- Le désaveu d’un grand nombre de liens populaires
- Une erreur dans votre ciblage international (Trafic de recherche -> Ciblage international)
Un problème de sécurité ou hacking de votre site ?
Je vous prépare un petit billet là dessus qui sera en accès restreint, mais c’est un paramètre à ne pas négliger.
Vérifiez que Google n’est pas détecté un problème de sécurité ou de spam sur votre site avec la section Problèmes de sécurité dans Google webmaster Tool. A ce propos je vous invite à être proactif et ne pas attendre que google vous avertisse via GWT. Je vous recommande de mettre en place des alertes sur les résultats retournés avec des requêtes comme site:visibilite-referencement.fr casino (ou viagra….) Pour cela il suffit d’automatiser avec Google Alertes ou Alert box. Si vous ne connaissez pas, je vous recommande de jeter un oeil aux 2 articles. Si la réponse venait à être positive, Google vous donne un guide d’assistance pour site web piraté.
Une pénalité manuelle ?
Si votre perte de trafic naturel sur Google correspond à une perte de positionnement, il se peut que votre site soit affecté par une pénalité manuelle. Les causes peuvent être:
- liens entrants factices
- liens sortants factices
- technique On site contraire aux guidelines de google (keyword stuffing, cloacking, ajout en masse et auto de contenu pauvre…)
Pour le vérifier, rendez-vous dans GWT à la section Trafic de recherche -> Actions manuelles. Si rien n’est noté tant mieux pour vous. Si vous avez malheureusement un message il va falloir identifier les raisons, trouver les solutions appropriées, les mettre en place avant de demander un réexamen du site. Voila 3 guides qui vous aideront probablement: Google penality removal, Unnatural Links Manual Penalty Recovery Guide, What to do to recover Google penalties.
Une mise à jour des algo de Google ?
Google modifie presque quotidiennement son algorithme, avec parfois des updates majeures. La première chose à faire est de vérifier si une corrélation existe entre votre perte de trafic naturel et une mise à jour Google. Pour cela vous pouvez consulter l’historique des MAJ tenues par MOZ, consultez ma page Météo des SERPs que j’ai mise en place il y a plusieurs mois. Mais le plus efficace reste quand même de taguer votre profil Google Analytics avec les dates des mises à jour. Le gain de temps est énorme et l’interprétation bien plus facile. Pour cela il existe l’outil Barracuda qui fait très bien le job. Cependant de nature parano j’aime pas donner des accès à des sites / logiciels / sociétés tiers. C’est pourquoi j’ai créé un script iMacros qui fait exactement la même chose sans donner accès à qui que ce soit. Le script pour ajouter toutes les dates de MAJ Penguin, Panda est disponible gratuitement.
Si votre baisse de visites sur votre site correspond avec:
- une MAJ Panda, concentrez vous sur la qualité et l’unicité de votre contenu. Suivez les processus de cette analyse, de guide d’audit ou cette étude de cas. Vous pouvez utiliser encore les outils comme Deepcrawl, screaming frog et siteliner pour étudier et analyser votre contenu.
- une MAJ Penguin, penchez vous du côté des liens entrants, leur qualité, leur volumétrie, leur vélocité… et leur cohérence. Pour savoir comment procéder là encore regardez cette analyse, cet audit et cette étude de cas. Vous pouvez vous aider d’outil comme Link Risk ou encore construire votre propre outil.
Vous avez suivi toute cette checklist ? Vous avez trouvez les raisons et les solutions à votre perte de trafic naturel issu de Google ? Vous pouvez être fier de vous mais conservez quand même cette liste dans un coin au cas où vous en auriez à nouveau besoin. Si vous n’avez pas le temps, ou que vous n’avez pas trouvé les causes, vous pouvez consulter Aleyda Solis pour tous vos sites en anglais, espagnol et peut être plus. Pour vos sites en français, je reste à votre disposition tout comme d’autres SEO français.
Encore merci à Aleyda et à très vite tout le monde.
Très bon article comme toujours, avec plein de bon liens bien que je garde sous la patte !
Je recommande aussi vivement à tous ceux qui ne l’on pas encore fait de suivre Aleyda, qui partage énormement de bonnes choses sur Twitter.
Une excellente synthèse qui ravira à la fois les néophytes et les plus anciens pour les rappels élémentaires. Tu m’as en tout cas définitivement convaincu de bosser avec la grenouille, le test du taggage G. analytics est en effet important avant toute conclusion hâtive, mais difficile -sinon impossible- à réaliser manuellement sur des gros sites.
Pour le taggage c’est pour ça que j’ai fait un script iMacros qui te fait tout en 2 minutes 😉
Merci pour cet article complet qui résume très bien toutes les causes! Je viens d’ajouter le lien dans mes favoris 😉
Merci Raphaël pour ce super article
A bookmarker cette checkliste, merci.
Je rajouterai « y a t il eu une mise en production ou une mise à jour serveur » . Su les gros sites, c’est souvent les développeurs qui pêtent tout 🙂
Bonjour Raph,
J’ajouterai deux causes possibles: le NSEO et le contenu dupliqué.
Je sais, tu vas me répondre que le NSEO et le contenu dupliqué engendrent une des situation décrites ci-dessus, mais il me semblait intéressant d’en parler.
Il faut savoir que certaines boutiques en ligne disparaissent du jour au lendemain de l’index de Google car elles reçoivent une pénalité manuelle à cause de sites chinois qui leur piquent leurs contenus.
Amicalement,
Bruno
Comme bruno la dit, le contenu dupliqué est très mal vu. J’aimerais en profiter pour dire de toujours vérifier votre contenu acheté. Je me suis fait avoir dans mes début en achetant un site sur flippa… Résultat, j’ai fermé le site en question et j’ai perdu mon compte adsense.