Sommaire du billet
Voila un article que j’aurais du écrire il y a bien longtemps. Je prends le temps aujourd’hui pour la simple et bonne raison que depuis quelques jours cette conception assez personnelle de Google me revient en pleine tête à longueur de journée.
Des prospects ne comprenant pas ce qui leur arrive mais aussi les supers articles de Christian et son Multiradars sont les déclencheurs de ce passage à l’acte.
L’hypothèse ou le paradigme du curseur chez Google
Depuis toujours je vois Google comme un modèle fonctionnant sur le principe du curseur.
Le principe du curseur est à appréhender comme une petit barre mouvante dans le temps en fonction d’événements maitrisés ou non. Cette définition est essentielle pour comprendre la suite de ma pensée. En même temps rien de très compliqué à comprendre la dedans.
Mouvante car avec Google rien n’est figé. Événements maitrisés ou non: ajout de lien par soi même, ou par d’autres (linkbaiting, NSEO…).
Avec ce type de modélisation vous comprendrez presque tout ce qui arrive à votre page ou votre site sur Google. Ah, ça commence à devenir intéressant là non ;).
Le curseur symbolise une limite ou un seuil qui une fois franchit entraine des conséquences (positives ou négatives).
Quelques exemples de modélisations d’un fonctionnement sous forme de curseur chez google:
- penguin: poussez un peu trop fort sur une ancre, dépassez le curseur et les animaux de la banquise vont débarquer
- panda: passez sous le seuil de qualité de Google et vous prendrez un coup de bambou
- opti on-site: bourrinez un peu trop en interne et votre site ne montra pas voire pire
- …
Mobilité et interdépendances de curseurs
Le curseur n’est pas fixe dans le temps
La mobilité du curseur, voila ce que je suis obligé d’expliquer presque une fois par jour en ce moment à des prospects.
En gros voila la conversation:
- lui: on a fait du netlinking tout comme on nous a expliqué l’année dernière, on a respecté à la lettre ; ça marchait bien et là on à pris une claque.
- moi: oui, google a bougé ses curseurs pour affiner, améliorer son algorithme
C’est typiquement le cas de penguin, combien de SEO on bourriné sur les ancres exactes par le passé. Moi le premier, je m’en suis donné à coeur joie sur mes MFTs. Pourquoi ? Car je savais que ça fonctionnait, c’était facile et surtout je savais que ce n’était pas bien. Mais vu que mon site pouvait disparaitre du jour au lendemain sans conséquence (ou presque) pour moi ce n’était pas grave. En revanche pour les sites clients, l’approche était tout autre.
Et là Google a mis en place le curseur penguin, et tout ceux qui étaient au-dessus ont pris cher.
En clair, avant le curseur était très haut (voire inexistant) donc nous étions sous le radar. Mais un jour Google a sifflé la fin de la récré et a décidé de l’abaisser drastiquement. Du coup, nous sommes passés au-dessus et en avons subit les conséquences. Le prospect a son explication, ce qui était vrai (ou bon) avant avec Google, ne l’ai plus forcément aujourd’hui et encore peut être moins demain.
C’est un peu à mon sens le principe des Multiradars de Christian. Ils permettent de visualiser les curseurs moyens à un instant T des sites concurrentiels sur des KW. On peut ainsi voir où se situe la limite admise par GG pour s’en approcher sans pour autant la franchir. Du moins, c’est comme ça que j’ai interprété l’outil de Christian.
La compilation de curseur
« je comprends pas, on a exactement le même nombre de liens et d’ancres que notre concurrent mais on est loin derrière. Pourquoi ? »
C’est là qu’entre en jeu la notion de combinaison ou compilation de curseurs. Il faut arrêter de voir et étudier les critères de manière isolée. Il faut avoir une vision bien plus globale du SEO et penser macro-référencement.
Un exemple, il me semble que Laurent Bourrelly pense que Penguin est basé à la fois sur les liens externes mais aussi sur le On-site. Donc en schématisant l’algo on pourrait donc avoir des cas de figure comme ci-dessous:
Tout cela est simplifié à l’extrême, mais je pense sincèrement que cette représentation est utile. Combinez les facteurs (et leurs curseurs associés), c’est un peu le travail d’analyse nécessaire pour chaque consultant SEO digne de ce nom.
L’outil multiradars permet bien de visualiser par extrapolation la position d’un curseur à un instant T. En revanche, cette position ne sera peut être plus la même demain.
Et vous, vous le voyez comment Google ?
Excellent article, j’y retrouve bien ma façon de voir.
commentaire non pertinent donc je ne mets pas de lien, je suis pas là pour ça :p
Intéressant cette notion de curseur, surtout pour mieux comprendre et analyser le référencement d’un site lors d’une pénalité.
Après est-ce que ça à un réel impact sur la qualité des résultats ? il y a eu du changement globalement mais la qualité n’est pas forcément au rendez-vous.
Bon article
100% d’accord avec cette notion de curseurs. Si seulement ils pouvaient rester figés dans le temps assez longtemps 🙂
Mais l’enfer, c’est aussi les autres. Ce que font les concurrents va aussi sans doute faire bouger ces curseurs car Google prend probablement en compte aussi la moyenne de ce qui se passe pour une requête ou dans une thématique.
En gros, lorsque tout le monde y va comme des bourrins (même les sites reconnus et trustés), Google peut difficilement foutre dehors tous ceux de la première page. On peut alors être un peu lourdaud.
Alors que pour une autre thématique, dès que tu bouges une oreille, tu te prend une fessée.
+1. Les plombiers / électriciens / serruriers de Paris ont, quant à eux, une position limite du curseur très élevée niveau bourrinage
C’est une explication qui a le mérite d’être simple à comprendre pour les prospects 🙂
Pour aller plus loin, et quand certains clients me demandent « POURQUOI le site AAA est devant nous alors qu’on retrouve ses ancres exactes partout N », il ne faut pas hésiter à lever le niveau en faisant entrer en jeu les fameux 200+ critères de l’algo Google.
Celui auquel je m’intéresse toujours en premier, c’est l’ancienneté du NDD. Eh oui, car les curseurs ne sont pas rétroactifs ^^
Bien expliqué. Je dirais aussi que parfois le curseur en question n’est pas un seuil ou un plafond mais une variation. C’est plus efficace pour la détection de spam.
Ok je bookmark cet article, ça me fait penser à la pub de tonigencil vu par les nuls avec le schéma, c’est simple à comprendre.
La carie SEO (google) elle attaque à la racine et te fera mal quand tu auras dépassé le seuil du curseur de tolérance.
avec ça tes backlinks …c’est du béton
Yes Raph, les multiradars sont des curseurs, à usage de mieux cerner ce qui faudrait faire, ou ne pas faire, à un moment t.
Les multiradars permettent aussi de bien choisir ses mots-clés avant de populariser un site, puisque, du coup, tu peux entrevoir les « passages » possibles sans bourriner.
Concernant cet article, il existe aussi un autre curseur encre plus vicieux dans les cas un peu limites, mais en limite basse à l’échelle d’un site :
a) Tu prends la photo d’optim on-site / off-site à l’instant t.
b) Tu fais la même chose au moment t+1, puis t+2.
c) Tu extrapoles sur ce que pourrait être t+3
d) quand t+3 arrive, tu compare la projection et la réalité et là, tu décides
Il faut donc ne laisser aucune empreinte…
GG horodate tout…
C’est pourquoi, il vaut mieux être un peu en dedans quand-même, pour éviter d’être pris en photo pour vérif ultérieure 😉
Google c’est devenu du grand n’importe quoi!!!! la seule chose qui marche si « il » le veut bien c’est le contenu textuel. Le curseur comme tu le dit pour les liens externes est au plus bas niveau et cela dépend de l’âge du site …(tu peux rajouter un curseur âge=trustrank). Je pense en effet qu’un lien externe est plus ou moins favorable en fonction de l’âge du nom de domaine. En gros tu as un lien pourri sur un site jeune tu morfle, tu as un lien de qualité sur un site jeune= peu d’influence… en revanche c’est l’inverse pour les anciens noms de domaine.
Ton article est bien pensé et plein de logique. J’ai apprécié.
Le seul truc maintenant c’est de pouvoir déterminer le niveau de chaque curseur par thématique et comme cela on peut aller chatouiller les concurrents qui sont devant.
perso avec un client sur une thématique hyperconcurrentielle (achat or), je rame à comprendre comment les 3 qui sont devant restent encore en haut.. Mais en suivant les positions quotidiennes, je peux te dire que l’on voit des étoiles filantes presque toutes les semaines… Les curseurs et les multiradars doivent bien se déplacer dans la cuisine Google toutes les semaines sur ce sujet… d’oú la difficulté de rester dans le top…
Bien bien tout ça !
A compléter avec la notion d’algorithmes par couche ou le fait que ces « curseurs » ne sont pas uniformes au travers de l’index et des Googles (thématiques, requêtes, keywords, pays, tld, toussa).
Et merci pour la reco 🙂
qu’est-ce que j’aimerai être une petite souris chez Google pour comprendre comment il fonctionne, cet algorithme. Oh, rien que pour l’aspect intellectuel.
Je me plais à penser que ce qui est exposé dans les différents articles sont des hypothèses -tu le reconnais toi-même- qui sont/seraient déjà périmées. Dans le sens où ce sont des hypothèse qui sont/étaient vraies il y a peu de temps. Google met en production, continuellement, des évolutions de son algo que personne ne soupçonne ou ne peut soupçonner la nature, tellement cela pourrait paraître abstrait.
Bref, pour en revenir à cette notion de curseurs, oui, je suis du même avis, tout est question de proportion, par rapport à l’ensemble des sites d’une thématique. On aurait même pu aborder la loi de Poisson qui permettrait d’englober les sites sites qui sont derrière la ligne verte de Google et les autres.
Mais ensuite ? Il y a un point qui me gêne. Comment avoir des curseurs relatifs et évolutif quand il y a une infinité de thématiques, de sujets, de mots clés ? (Google ne peut pas se permettre d’avoir une liste finie).
La suite, ce sera dans ton prochain article sur la théorie des graphes appliquée au SEO ? https://fr.wikipedia.org/wiki/Th%C3%A9orie_des_graphes
Si je comprends, le tout est de savoir quelle période utilise google pour ré-évaluer son curseur selon la loi de Poisson (sur le périmètre d’une thématique spécifique ou curseur relatif) et ensuite on projette ?
Selon vous quelle serait cette période ?
Deuxième question, cela signifie-t-il que si un concurrent a profité d’une période « fast » sur une ancre exacte, il va être très très dur de le rattraper puisque le curseur est non cumulatif ?
Merci pour cette analyse !
Ca parait extrêmement cohérent. J’ai également lu l’article de @Christian Méline sur le multi-radar (merci les logarithmes ^^).
Je pense qu’il faut également pondérer cette notion de curseur en fonction de l’âge des domaines qui linkent, les secteurs (keywords + ou – concurrentiels)… authorship du site également !
Merci pour ce concept, c’est une façon intéressante de voir les choses et cela permet de ne pas se fixer sur un critère unique (on-site OU off-site)!
@Niko merci
@Arnaud là tu rentres dans un autre débat, j’explique comment ça fonctionne selon moi pas que Google obtient de meilleurs résultats
@Sylvain 100% d’accord avec toi, d’où ma notion d’événements non maitrisés. Et ton discours, j’ai tenu le même au mot près sur skype avec Christian l’autre jour justement.
@Yann pour le curseur ancienneté NDD oui toi tu ne peux pas le faire bouger, mais google de son côté peut décider de le bouger en terme d’impact sur le ranking
@Renaud oui Google est obligé s’il conserve une valeur fixe elle sera plus facilement identifiable et donc contournable 😉
@Christian perso je conseille toujours d’éviter de flirter avec la limite, tu es plus tranquille lors de variations
@Bertrand on ne peut pas etre aussi catégorique 😉
@Bernard oui on connait tous des cas un peu spéciaux. Mais gardes à l’esprit que tu ne vois pas toujours tout
@Laurent oui je sais bien tout ça mais je voulais pas encore allonger l’article. Il est clair que ce principe de curseur est variable selon pas mal de critères.
@laurent je n’ai jamais dit que le curseur était au même endroit quelque soit la théma, le kw ou autre. C’est pour ça que je trouve plutôt pas mal l’outil multiradars. Il te file les infos d’un KW précis et non une généralité.
@Aston pas compris
@Simon non tes pondérations sont justement des curseurs du côté de google donc ça colle bien
Je ré-essaie,
la loi de poisson se base sur la proba d’un évènement sur un laps de temps fixé.
Dans notre cas, proba d’avoir des ancres exactes (indexée sur une adéquation ancre-thématique du site + corpus de la cible)
C’est ce dont parle christian quand il dit snapshot t, puis t+1u, t+2u … ensuite on projette le t+3u
Quelle est la valeur de u selon vous pour avoir une projection de qualité ?
Raph, en relisant je comprend que ton curseur est cumulatif du coup j’ai ma réponse.
Alors j’en pose une autre 🙂 j’imagine que le nombre de nouvelles ancres exactes sur une valeur donnée par exemple « top référenceur » doit être cadré par le nombre totale d’ancres exactes, si tel est le cas doit-on prendre le total en cumulé ou en delta sur un laps de temps donné ?
merci j’ai appris beaucoup de choses , perso j’ai remarqué que les personnes qui avaient les meilleurs résultats étaient souvent celles qui ne connaissaient absolument rien au seo et qui donc avaient réellement une attitude naturelle .
Par contre j’avais une question , quand vous parlez de ne pas trop utiliser la même ancre ,c’est à dire qu’on peut ranker son sites sur plusieurs thèmes différents ?
Salut, tes images sont super didactiques et permettent de bien visualiser ton exposé. Elles permettent aussi de donner une orientation à son stratégie, et servent aussi pour montrer à ses prospects/clients comme tu fais.
Je pense que si bien elles sont utiles dans ce sens là, et que ton raisonnement est impeccable, la réalité du fonctionnement de Google est comme vous imaginez bien plus complexe, et elle est difficilement représentable même pour les ingénieurs de GG (pensez aux sites clean qui se font pénaliser).
Si par exemple ils utilisent des algorithmes génétiques qui s’améliorent au bout de milliers de mutations, qui peut comprendre le pourquoi du comment de l’algo gagnant ? et si on mélange plusieurs centaines de ces loulous on a quoi ? On arrive à un système incompréhensible et imprédictible qu’il faut sans cesse réajuster pour obtenir à peu près ce qu’ils veulent : provoquer des hypertensions et nous faire acheter adwords
Moi je me fiche bien de ces histoires de curseurs vu que je fais mon contenu pour l’utilisateur et conçoit des sites pour qu’ils soient heureux de naviguer dessus. Ok je –> 🙂
pas mal. mais j’ai peur que la position d’un curseur change en fonction de la position du site sur un autre curseur.
@Adifco
Algo génétiques chez GG ?
Je veux bien que parfois, il y ait le feu à la forêt, mais faut pas déconner, à cette échelle, faut oublier !!
PS : En outre, ça ne collerait pas ici, car on ne cherche pas à connaître dans quelle direction va le web, mais si tel ou tel site déconne de trop !
@Christian Méline, Toby Segaran, spécialiste en la matière a quitté sa propre boîte pour aller bosser pour tonton GG.
Oui, c’est bien ce que je dis, ces curseurs sont très bien comme une sorte de boussole, mais du fait de sa simplicité (très appréciable) ils sont limités.
100% d’accord avec cette notion de curseurs. Si seulement ils pouvaient rester figés dans le temps assez longtemps 🙂
Wow. C’est super d’informations sur les curseurs. Eh bien expliqué. Je vous remercie.
@adifco
Je ne te dis pas qu’ils n’ont pas de chercheurs ou des scientifiques chez eux (enfin, les vraiment bons vont chez adwords quand même), mais au niveau de l’application d’un Google qui utilise de l’IA a grande échelle c’est une utopie, c’est « non praticable ».
Les algos sont obligés d’être rudimentaires, GG n’a pas le choix.
Merci pour cet article.
Et bien, je pense que google c’est celui qui fait ce qu’il veut et quand il veut. Et quand il décide de faire une chose, aucun ne peut l’en empêcher tellement il est puissant!En tout cas, c’est ce qu’on se laisse croire!
Je pense que tout est beaucoup plus compliqué que ça. Il pourrait même y avoir une valeur attribué au nombre d’expressions sur lesquels votre site internet est présent, et justement plus vous avez d’expressions plus le curseur se voit levé ou abaisser (c’est un peu tiré par les cheveux mais tout à fait possible comme hypothèse). Je parle ici du nombre d’expressions pour une même thématique. C’est très compliqué de savoir, mais personnellement je pense que les curseurs varient en fonction des expressions.
Ton article est vraiment pertinent, on voit qu’il y a une réelle recherche derrière!
Merci pour ces réflexions.
Effectivement cette notion de curseur me paraît très intéressante ! Le pire dans tout cela c’est que le curseur peut varier sans que l’on y soit pour quelque chose, cela peut parfois dépendre de ce que font les concurrents de SERPs…
Article très intéressant en tout cas. Ce que j’aimerais pouvoir envoyer un espion chez Google pour en savoir plus sur tout ça 🙂
Ce qui est facscinant avec Google, c’est le niveau de spéculation que l’on atteint. Chacun en fonction de ses croyances projette une interprétation : Ici les curseurs.
Personnellement, cela ne me parle pas plus que les croissants au beurre, même si je comprends le propos.
Continuons de spéculer et je suis convaincu que Google va nous promettre la vie éternelle.
Hello,
En lisant ton article, je me suis demandé : de nombreux seo ont subi plus ou moins fortement ces pénalités. Comment est-ce possible de ne pas recouper ces données pour connaître les paramètres du curseur ? Savoir les limites où Google nous tombe dessus en 2013… 🙂