Sommaire du billet
Bonjour à tous aujourd’hui un petit article qui je l’espère servira à certains d’entre vous.
En principe, en référencement naturel nous sommes tous amenés à bosser sur l’optimisation on-site. Ici il ne s’agit pas de vous apprendre comment optimiser votre site, mais plutôt comment produire un document qui vous fera gagner du temps et sera explicite pour votre client le cas échéant. Et le tout avec Screaming Frog SEO et excel.
Petite précision vous pouvez également le faire avec Xenu ou d’autres softs ou scripts de votre conception.
Analyse avec Screaming Frog SEO
La première étape est de passer votre site dans la moulinette du logiciel sus-nommé. La version gratuite permet de scanner 500 URI pour de plus gros besoins vous pouvez opter pour la version payante ou Xenu (gratuit).
Une fois le soft lancé il vous suffit de rentrer votre url dans le champ tout en haut « Enter URL to spider » et cliquer sur start; Ensuite laissez tourner jusqu’à l’atteinte des 100%.
Je ne rentre pas dans les détails de ce soft que vous devriez posséder pour pouvoir jeter un oeil rapidement à certaines opti on-site. Très pratique, je m’en sers quasiment chaque jour avec Xenu.
A présent plusieurs solutions, soit vous pouvez trier en amont vos données de sorties soit exporter l’intégralité des données et vous ferez un post traitement sur Excel. Pour l’occasion disons que j’exporte tout, vous aurez ainsi un aperçu global pour la suite.
Pour ça il vous suffit de mettre (sur la gauche) Filter sur All puis de cliquer sur Export. Ensuite enregistré votre rapport .csv sur votre bureau par exemple.
Voila c’est terminé pour la partie screaming frog seo, à présent passons sur excel pour le traitement des données.
Import des données et traitement
Première chose ouvrez un fichier excel et collez vos données du rapport CSV dedans. Burk c’est moche, indigeste et surtout inexploitable.
Donc revenez en arrière, dans votre fichier excel cliquez sur l’ongle données en haut ensuite cliquez sur « A partir du texte » dans la nouvelle fenêtre retrouvez votre fichier puis cliquez sur importer.
Dans la nouvelle fenêtre cochez « délimitez » si ce n’est pas le cas et choisissez comme « origine du fichier » UTF-8 afin d’éviter les problèmes d’accentuation.
Faites suivant.
Pour cette étape veuillez cocher: Tabulation, point-virgule et virgule puis cliquez sur suivant.
fenêtre suivante cliquez simplement sur Terminer puis sur OK
Voilà à présent toutes nos données importées par colonne ce qui sera nettement plus pratique pour travailler.
Je vous montre à présent comment trier vos données (souvenez-vous l’histoire du post traitement) pour ça, cliquez dans une cellule au-dessus d’un titre de colonne (content pour l’exemple ci-dessous). Ensuite cliquez sur l’onglet données puis filtrer. A présent vous devriez avoir des petites flèches sur tous vos titres de colonnes. Cliquez sur celle de « Content » et vous pouvez choisir de n’afficher que certains types de données. Pour le cas présent on ne va s’intéresser qu’aux pages html. Donc je coche je valide et hop je me retrouve qu’avec les données relatives aux pages de contenus.
A présent faites un petit nettoyage en supprimant les colonnes dont vous n’allez pas vous servir. Un conseil, faites-le, car vous êtes surs que sinon des clients vous demanderont « Mais ça, à quoi ça sert? »
Un peu de SEO avec excel
Bon c’est bien beau toutes ces données mais j’en fais quoi pour les rendre plus lisibles pour moi même ou le client si c’est lui qui doit opérer les changements?
Voici quelques exemples de mise en valeur.
200, 301, 302 ou 404?
On le sait Google n’aime pas les erreurs et il faut limiter les redirections au strict minimum. Donc vous allez dans la colonne C pour « status Code » Idéalement vous devriez n’avoir que des 200. mais comment le vérifier au milieu de toutes ces urls?
Première chose, dans vos menu cliquez sur Accueil puis cliquez sur le C de votre colonne pour la sélectionner et ensuite cliquez sur « mise en forme conditionnelles » -> « règles de mise en surbrillance des cellules » -> « texte qui contient » et dans la nouvelle fenêtre dans le champ vous notez 200 puis dans le menu déroulant vous choisissez la couleur verte. En principe toutes vos pages renvoyant un statu 200 seront en vert.
A présent vous renouvelez l’opération mais cette fois-ci dans le champ vous notez 30 et couleur orange. A présent vous avez toutes vos redir (301 et 302) qui ressortent
Une dernière fois avec cette fois ci dans le champ 404 et couleur rouge.
Duplicate des titles
Vous le savez, il faut toujours être unique, dans les titres de vos pages également. On check?
Cliquez sur la colonne E correspondant chez moi au Title1.
A présent faites « mise en forme conditionnelles » -> « règles de mise en surbrillance des cellules » -> « Valeurs en double » Dans la fenêtre laissez double et mettez la couleur rouge, comme on peut le voir mes Titles en double ressorte en rouge. Vous n’avez plus qu’à corriger les pages incriminées.
Peaufiner ses résultats dans les SERP
Une dernière pour la route je n’aime pas avoir un title tronqué dans les SERP pour mes résultats je trouve cela inesthétique et parfois le sens de la phrase s’en est allé.
Pour éviter cela il suffit de faire attention au nombre de caractères que vous utilisez; En restant en dessous des 63 caractères espaces compris, Google ne devrait pas couper votre title. Donc en route pour la chasse au title plus long.
Cliquez sur la colonne « Title 1 Length » puis « mise en forme conditionnelles » -> « règles de mise en surbrillance des cellules » -> « Supérieur à » dans la nouvelle fenêtre dans le champ noté 63 choisissez votre couleur et tous les titles supérieurs à 63 caractères seront en rouge. On voit ci-dessous que celui de l’exemple faisait 72
Voilà quelques exemples, c’est simple mais cela peut ^permettre de vous faire gagner du temps et de présenter un document lisible à votre client.
En espérant que cela vous serve.
Très bon résumé de l’utilisation de l’utilisation de Screaming Frog, Xenu ou autre pour détecter rapidement les pages à modifier.
On peu d’ailleurs rajouter la méta-description qui si vide risque d’impacter négativement le CTR (Google n’étant pas toujours pertinent dans son choix de snippet).
Et aussi une valeur minimum pour les title dans la mise en forme conditionnelle histoire de mettre en avant toutes les pages ayant une title vide ou pas assez explicite.
Un bon article pour les débutants, je suis jaloux j’aurais pu le publier chez moi !
Blague à part, j’utilise à peu de choses près le même type de techniques, pour tout ce que tu as énoncé ici mais aussi pour d’autres utilités, notamment les précos de base, par exemple pour le title en rajoutant une colonne qui s’appellera « Title proposé ».
Voilà des astuces très pratiques que je ne connaissais même pas dans Excel. Pour ma part, je vais surtout les utiliser pour mes rapports de backlink pour trouver en un coup d’oeil les liens morts.
Et tout cela complète idéalement la conférence de Vincent Lahaye au VLC2012 consacrée au tableur ;).
C’est vrai que les couleurs c’est beaucoup plus parlant pour les clients. Rien de tel que plein de rouge dans un doc pour lui faire peur!
Merci pour le rappel!
@Antonin oui ce ne sont que rois exemples, il y a une multitude de facteurs qui peuvent être mis en exergue avec juste quelques clics. Mais je n’allais quand même pas tout donner (surtout j’avais pas le temps 🙂 )
@Sylvain je fais la même chose effectivement en bien plus complet. là l’idée c’était juste de ne rien rajouter mais juste mettre en avant les problèmes
@Puntocano Excel est une mines de ressources pour peu qu’on y réfléchisse un peu
@Vincent oui une image vaut mille mots parfois
Un bon début pour l’analyse rapide des erreurs.
On peut aller plus loin avec ces données, notamment en analysant le nombre de pages par niveau de profondeur, les pages ayant beaucoup ou peu de liens entrants ou en regroupant les pages du site par zone.
Merci ça fait du bien les rappels 🙂
Sympa ton article, j’utilise exactement la même technique 🙂 Par contre, quand j’exporte mes datas des fois il y a des sauts de lignes qui ne marchent pas du coup cela nécessite un gros retraitement dans Notepad ++ (à condition de connaitre les expressions régulières de l’outil). Sinon il suffit de tout sélectionner avec le Control+A et de coller directement dans Excel 😉
Ce qui est génial avec ScreamingFrog c’est les customs crawl pour vérifier la présence ou non-présence d’un élément (ex. code google analytic) mais à ma connaissance ces données ne sont pas dans l’export.
Merci pour cet article, très pédagogique. C’est vrai que pour les néophytes dont je fais partie il est parfois délicat de se lancer dans ce genre de logiciel.
Screaming Frog est vraiment pas mal mais je préfère Xenu à cause de la limite des URLs. C’est des outils quand on a tendance parfois à oublié mais qui se révèlent tres pratique dans la gestion des liens cassés et d’optimisation de Meta Title et Description. Je pense qu’y en a pas mal qui vont se mettre à l’optimisation des Meta avec ton tutoriel 🙂 A+
EDIT admin : ton prénom la prochaine fois ou pas de lien thx 😉
J’etais septique sur l’utilité d’exporter vers excell mais effectivement raph passé la première utilisation histoire de prendre la main on gagne finalement en efficacité ! Merci pour le tuto
Bon tuto pour débuter l’analyse des données brut dans excel
Petit astuce pour screaming frog en gratuit on peut passer la limite de l’analyse des 500 urls en important sa propre liste d’url via le mode liste (menu mode > list)
Il est bien ce tuto – tres complet – bon apres on est pas d’accord sur la longueur de la balise title – perso moi un titre tronqué ca ne me derange pas plus que cela et au pire je m’arrange pour qu’il soit tronqué au bon endroit 😉
Pas mal du tout cette petite explication. Il suffit souvent d’un peu de méthodologie pour arriver à faire tout ce qu’on veut avec les logiciels disponibles. Moi aussi, je suis partisan du titre non tronqué, plus pour ne pas diluer l’information.
Une bonne piqure de rappel ne fait pas de mal ! Merci pour cet article.
Les pages qui générant une erreur et les pages avec un titre similaire on les a toutes gratuitement à l’aide de GWT, non ?
Je ne comprends pas bien ce qu’on gagne de plus à passer par un logiciel qui limite les résultats à 500 URLs là où GWT n’a aucune limite.
@Kilroy oui cet article est loin d’être exhaustif peut être qu’un jour je ferais un série de billet sur un audit complet
@Nicolas oui il existe parfois des couacs au niveau des exports. chez moi le contrôle A + collage (ou collage spécial) ne fonctionne pas On perd la mise en forme colonne
@christophe mais chutttttt ne révèle pas tout 🙂
@Jguiss pour moi l’un ou l’autre doit faire partie de ton arsenal
@Michael mais toi aussi chuttttttttttt ne révélez pas tout mince 😀
@Julien oui chacun ses habitudes, mais je préfère un titre simple, concis et clair avec moins de dilution
@Thibaut et oui parfois nul besoin d’investir dans des logiciels couteux
@Alex j’en déduis que tu ne dis pas souvent faire d’audit. Tes clients ont ils tous GWT? Tes clients acceptent-ils tous de l’installer? Tes clients acceptent ils tous de te donner un accès? Et enfin GWT est bien loin d’être en temps réel, il existe une latence entre la remonté et affichage des données et la réalité. Autant de raison qui font que Xenu ou Screaming frog sont essentiels voire indispensables
Comme Sylvain de Noviseo, je suis étonné que certains soient étonnés que ce genre d’outil existe.
C’est vraiment un MUST HAVE et un MUST DO : tout ceci est plus qu’indispensable et tel Mr Jourdain, nous, SEO, faisons de l’analyse On-Site et Off-site aussi bien que lui faisait de la prose sans le savoir.
Quant aux astuces Excel, ah oui, là, c’est un plus pour accélérer l’analyse. Je te critiquerai pas sur ce point là 🙂 (je dirai même : c’est la valeur ajoutée de l’article)
En tout cas, c’est comme ça que je procède !
@Loran oui rien de bien révolutionnaire en principe dans mon article. C’est juste que certains galèrent pour produire des docs lisibles et/ou exploitables donc un peu de méthodo ne fait pas de mal. Chacun a ses petites bidouilles habitudes et parfois c’est sympa de les partager. Ton site m’a touché en plein coeur 🙂
Mais merci pour ce tuto, retravailler des exports xls est toujours fastidieux, j’utilisais vraiment l’export SF comme une buse.
Merci pour cet article !
Effectivement un fichier Excel formaté ainsi est bien plus parlant que le côté brut de décoffrage de GWT…
Question un peu hors sujet à propos de la longueur de la balise Title qui a priori fait débat. Si on choisit de rester dans l’optique qu’elle ne soit pas tronquée, faut-il réécrire les titres des posts dont la longueur est supérieure à ces 63 caractères ?
Intéressant ce tool, je connaissais Xenu mais je n’utilise pas beaucoup ce genre de logiciel. Et c’est sûrement un tord, je devrais les intégrer dans le processus de travail quand je bosse sur mes sites.
Ce genre de tool est surtout indispensable quand on travaille sur des sites volumineux en terme de page. Après pour les petits sites (disons entre 20 et 50 pages) est-ce tout autant utile ?
Je ne connaissais pas, mais je vais aller le tester car ca a l’air pas mal!
Belle méthodologie bien expliquée et documentée dans cet article, ce qui va me permettre de gagner du temps, merci !
Merci pour ces astuces, et aussi pour ces fonctionnalités d’excel très utiles qui peuvent servir dans d’autres utilisations !
Et bien moi qui suis un grand fan de Xenu, je ne connaissais pas Screaming frog SEO (entendu parlé, jamais utilisé) donc merci pour ce petit rappel log. Pour l’exploitation avec fichier excel c’est un vrai outil de travail onsite fournit, je suis comme toi, j’aime travailler dans le détail les descriptions et balise title pour augmenter (même sensiblement) mes CTR
J’ai vu faire un ami à peu près la même chose avec Xenu, mais il allait tellement vite que je n’ai pas tout compris ce qu’il a fait et je n’ai pas trop osé lui prendre la tête avec ça. Maintenant je vais pouvoir faire pareil de mon côté, première chose à faire pour moi, prendre Sreaming Frog et ensuite me remonter les manches. Mais je pense que ça vaut vraiment le coup 🙂
Bonjour et merci pour ce super tuto.
Je n’utilisais pas Screaming Frog car je manquais de solutions pour mettre en forme les résultats obtenus. Maintenant, ça change tout !
Excel est juste un outil formidable pour les SEO…
Lorsqu’on connait bien excel ça parait tout simple mais quant on ne connait pas on pense meme pas qu’on peut faire tout ça ! En tout cas vraiment bien joué les petites manip pour les couleurs..
ps: dans import des données et traitements tu as fait une petite faute :
cliquez sur l’ongle données il te manque le T « ongleT »
pps: merci je pourrais me le raconter avec excel maintenant haha!
pps:tu peux supprimer mes ps :p
Bravo un logiciel qui fonctionne sous linux. C’est une très bonne chose.
Savez vous si il existe un outil qui permet de détecter un panda et qui conseille des solutions pour résorber le problème ?
Pour moi c’est une catastrophe, mon site était bien placé sur google.com et depuis panda il a disparu, le problème c’est que je ne m’y connais pas assez et que j’ai des milliers de pages sur mon blog ( près de 10 ans de blogging 🙁 ) google m’a tueR.
Je n’ai pas envie de détruire tout mon travail parcequ’un alogorithme a décidé que faire du contenu unique ce n’était pas bien ( tout mes textes sont uniques, rédigés par mes petites menottes ).
trés bon tuto, personnellement je ne connaissais pas ce petit logiciel, encore une bonne découverte qui va m’aider énormément.
Un outil indispensable à ne surtout pas négliger.Merci pour le partage !
Comme je l’ai dit sur Noviseo et son article sur SFrog, cette technique a indéniablement l’avantage de proposer une interface claire. Autant pour soi, le patron ou le client.
Merci encore !
Je tiens à vous remercier pour ce tuto qui m’a fait prendre conscience de mon incompétence sur Excel qui reste un super outil pour les SEO. Merci pour le partage et bonne continuation.
Il est vraiment très Surpuissant cet outils. Je trouve dommage qu’il n’est pas compatible avec MAC. Je vous remercie pour cette découverte, c’est un sacré bel outil.
Merci pour ces astuces que je ne connaissais pas auparavant et qui sont vraiment très utiles dans le domaine du référencement. C’est toujours un plaisir de lire des articles comme celui-ci. Merci pour le billet et bonne continuation.
Je vous remercie énormément pour cette découverte ! Cet outil a l’air géniale et je vais le tester dés maintenant. Merci encore et joyeux noël à tout le monde.
Je vous remercie énormément pour cet excellent billet ainsi que ces précieux conseils dans le domaine du référencement. C’est toujours un plaisir de découvrir des outils super intéressants comme celui-ci. Merci encore et mes meilleurs vœux pour 2013.
Essayé et adopté !Par contre et comme tu le dis Excel est indispensable pour un retraitement efficace des données
Je l’utilise pas mal personnellement un sacré bel outil,Excel est pour le moins surprenant, je ne pensais pas qu’il puisse avoir des implications dans le référencement mis à part stocker les url on on a posé des liens Merci en tout les pour ces astuces!
Merci pour le partage de ces précieux conseils qui me sont d’une grande utilité. Sinon, cet outil SEO est à ne pas négliger car il est vraiment surpuissant et indispensable. Merci encore.
Excel est pour le moins surprenant, je ne pensais pas qu’il puisse avoir des implications dans le référencement mis à part stocker les url on on a posé des liens… Savez-vous à partir de quelle version d’Excel on peut l’installer car ne trouve rien à ce propos et racheter une licence Office?
Essayé et adopté !Par contre et comme tu le dis Excel est indispensable pour un retraitement efficace des données
Merci pour ce tutoriel très bien expliqué et très complet. C’est vraiment un excellent article qui m’est d’une grande utilité surtout pour un novice comme moi qui ne connaissais ses astuces très pratiques auparavant. Merci et bonne continuation.
Ce logiciel de référencement naturel qui nous permet d’exporter les données les plus importantes au format Excel. Selon moi, cet outil est indispensable dans le monde SEO pour améliorer la visibilité de nos sites. Merci pour cet excellent article et bonne continuation.
Salut, je savais qu’il était possible d’exporté des donné sur excel mais je ne savais pas comment faire, donc merci beaucoup pour ce tuto qui es très didactique et qui m’est vraiment utile.
Merci encore et à bientôt.
Je suis tombé par hasard sur cet article et je le trouve vraiment excellent. Sinon, votre tutoriel est vraiment très bien expliqué et m’a permis de comprendre comment ces deux logiciels pourraient m’aider dans l’optimisation d’un site. Salutations.
Je suis ravi d’avoir découvert ce blog et je trouve cet article intéressant et très instructif. Merci pour ce tutoriel expliquant comment optimiser un site à l’aide de Screaming Frog et Excel. Cordialement.
Merci énormément pour toutes ces astuces que je ne connaissais pas auparavant et qui vont surement m’aider dans l’optimisation de mon blog avec Excel et Screaming Frog Seo. Merci aussi pour le partage de cette vidéo explicative. Cordialement.
Je suis tout à fait d’accord avec Gurvann sur le fait qu’Excel reste indispensable pour un traitement efficace des données et Screaming Frog est vraiment un excellent logiciel SEO. Un grand merci pour ce tuto explicatif et très bien détaillé.
Je suis ravi d’avoir découvert ce blog et je trouve cet article intéressant et très instructif. Merci pour ce tutoriel expliquant comment optimiser un site à l’aide de Screaming Frog et Excel. Cordialement.
Bon tuto pour débuter mais pour aller plus loin et pour pouvoir travailler avec des sites volumineux Excel ne vous aidera pas. Je parle en connaissance de cause puisque j’utilise Screaming Frog Spider tous les jour s depuis 2 ans.
Lorsque vous aurez crawlé plus de 200 000 URLs, les fichiers Excel ne s’ouvrent plus, trop gros. Je ne parle même pas des cas quand on crawl 1 000 000 de pages.
Voici ce que j’utilise pour traiter les données issues de Screaming Frog Spider pour les gros sites:
– un ordinateur puissant (au moins 16Go de RAM mais 24Go c’est encore mieux). Je loue les ordi chez Amzon Web Services à l’heure. Attention à la facture si vous voulez crawler un site qui a plus de 500 000 pages
– un service cloud pour sauvegarder le crawl et les .csv fournis par SFS. Cela vous permet de traiter les données sur votre ordinateur et non pas sur celui d’Amazon. Cela réduit la facture
– une console linux (cygwin par exemple) pour traiter les données
Merci infiniment pour ce billet, je travaille avec Screaming Frog depuis quelque temps et cette astuce va m’aider à rendre un fichier clean à mes clients.