Brevet de Google ? Le CTR des backlinks.

A voté

Depuis l’apparition de penguin, nous sommes nombreux à réfléchir continuellement à la question « capitale » : c’est quoi un lien de qualité ?

Depuis l’origine, tout le monde s’accorde à dire que quand un site met un lien vers le vôtre il vote pour vous, il vous accorde sa confiance, il dit « voici un site qui m’intéresse ! »
Et si Google, compte tenu des nombreuses manipulations dont il est l’objet, était passé d’un vote de site à site à un vote d’internautes pour un site.

Cette réflexion judicieuse a été menée par Maxime Morvan dont je vous livre ci-dessous l’article.

Un vote d’internaute mesuré par les clics.

Dans ce cas le poids du vote du site qui vous met un lien aurait beaucoup moins d’importance, par contre le nombre de fois où le lien est cliqué (le CTR) deviendrait prépondérant.
J’ai un lien dans un site d’annuaires, cet annuaire est « clean », je suis content, par contre ce lien ne m’apporte aucune visite.

Contrairement à Hervé du blog infiniclick je pense que Google regarde ou va regarder l’utilité de ces backlinks POUR  les internautes. Hervé a écrit dans un article du mois d’avril : « Pour ma part, je pense que les annuaires sont là pour aider à l'amélioration des positions, pas pour générer du trafic. Si vous en êtes encore à penser cela, changez de métier ».

Je pense qu’Hervé avait raison, mais je pense aussi qu’il n’a plus raison ou que bientôt il n’aura plus raison. Je m’explique :

Google analytics est installé sur une multitude de sites. Ainsi selon l’étude de Tag-Trek  Google analytics est crédité d'une part de marché de 74,63% dans le monde.

De ce fait Google peut connaitre le taux de clic de vos liens dans la majorité de vos sites référents. Si vous n’avez pas Google analytics chez vous ni dans le site référent Google peut néanmoins connaitre beaucoup d’informations :

Premier cas : Google analytics est installé sur le site qui  a accepté, mis votre backlink.

Dans ce cas Google connait le nombre de visites de la page et le nombre de clics sur votre lien. Imaginons une page recevant 10 000 visites avec 0 clic sur votre lien. Votre score est à 0. Aucun internaute ne vote pour votre site !

Imaginons maintenant que 10 personnes cliquent sur votre lien. Le taux de vote est à 1 pour 1000. Ce n’est pas glorieux. Google peut comparer ce chiffre aux chiffres des autres backlinks de la page(ou du site) et vous attribuer une bonne ou une mauvaise note. Il peut aussi comparer les sites entre-eux. Un site dont les backlinks sont suivis sera mieux noté. On en reparle plus loin pour les annuaires.

Si votre lien est cliqué par plus de 100 personnes votre CTR devient plus raisonnable. Votre site est bien noté, il va monter dans les SERP.

Mais Google peut aller plus loin. Il peut voir ce que fait l’internaute quand il arrive sur votre site. Par exemple, Il quitte immédiatement, le taux de rebonds est catastrophique. Votre site donne envie de cliquer, mais il ne semble pas légitime pour les internautes, votre note sera réduite.
Encore mieux Google analyse le pogosticking. L’internaute clique, arrive sur votre site et en part rapidement. Par contre l’internaute revient sur le site de départ et clique sur d’autres liens externes de la page et cette fois il est intéressé, il parcourt plusieurs pages du nouveau site. Je pense que Google peut faire ces comparaisons.

Deuxième cas de figure : Google analytics n’est pas installé sur le site qui "détient" votre backlink, par contre votre site a lui installé Google analytics.

Google peut comparer la situation de tous vos backlinks.
50% des sites n’envoient aucun internaute. Aucune visite provenant de ces sites référents. Google sait que ces liens ne sont pas utiles pour l’internaute. Google peut les ignorer, il peut aussi envisager de vous pénaliser pour liens non qualitatifs, il peut aussi pénaliser le site qui a le backlink et qui n’apporte aucune visite.

En crawlant la totalité des sites web qui disposent de Google analytics et qui reçoivent un backlink du site de base il peut connaitre si le site de base, un annuaire par exemple, est intéressant ou si les liens ne sont jamais cliqués. Il est en mesure d’en tirer les conclusions qui s’imposent.

Troisième cas de figure : Google analytics n’est pas installé ni sur votre site ni sur celui qui vous a mis des liens.

Google peut néanmoins savoir si le site A apporte, en général, des visites aux sites qui bénéficient de backlinks et qui eux ont installé Google analytics. Le site apportant des backlinks est utile pour les autres, donc aussi, sans doute pour vous, les liens sont à priori de qualité.

Analysons maintenant le cas des annuaires.

Il est bien connu que nombre d’annuaires n’ont d’autres buts que de fournir des liens « faciles ».
Comme le dit Hervé l’objectif de ces annuaires n’est en aucun cas de vous apporter des visites mais de vous donner un lien supplémentaire. C’est là que mon analyse contredit l’analyse d’Hervé. Aux yeux des internautes, comme aux yeux de Google ces annuaires n’ont aucune utilité !

Google penguinise (peut penguiniser, va penguiniser) les sites qui utilisent ces annuaires (en trop grande quantité ?)

Mes recommandations : Vous pouvez soumettre vos sites à des annuaires, je vous propose néanmoins de le faire avec parcimonie, de faire d’autres backlinks plus qualitatifs et de choisir vraiment de bons annuaires.

Qu’en est-il des liens internes ?

Si vous avez un outil de webanalytics vous savez quels liens sont cliqués par les internautes. Si vous avez un paquet de liens jamais cliqués vous devriez les enlever, il est prouvé qu’ils ne servent à rien ! S’ils ne sont jamais cliqués (même pas une fois), pourquoi les laisser ?

Comment automatiser cette analyse pour vos sites.

Je pars de l’hypothèse que vous avez installé Google analytics ou un autre outil de web-analytics. Vous prenez une période longue, par exemple 1 an, vous affichez tous les sites référents qui vous ont apporté des visites et vous faites un export Excel.

Si vous avez aussi Google webmaster tools ou un autre outil comme majestic seo vous exportez la liste de tous les domaines qui vous ont apporté des liens.
Avec une macro Excel  vous comparez vos 2 fichiers  et vous avez immédiatement la liste des domaines ayant posé un backlink vers votre site mais qui n’ont apporté aucune visite. Si mon analyse est exacte (il faut éliminer les liens inutiles en terme de clics et de visites) vous savez ce qui vous reste à faire.

Cette analyse vous permet de déterminer une liste de domaines et pas une liste de backlinks. Il doit être possible d’aller plus loin en analysant chaque backlink, mais pour le moment j’ai considéré que cette première analyse me donnait déjà assez de grain à moudre.

Ce travail d’analyse m’a aussi servi à aller plus loin dans l’étude des sites référents. Certains de ces sites auraient dû m’apporter beaucoup plus de visites. A moi de travailler pour essayer de rendre plus « populaires » certaines pages contenant mon fameux backlink en les partageants, par exemple, sur les réseaux sociaux.

L’objectif est de rendre mes sites moins dépendants de Google en essayant d’aboutir à un trafic en trois tiers défini par Laurent. C’est bien sûr un objectif difficile à atteindre, pour ma part je relis cet article 2 fois par an pour être sûr de ne pas l’oublier, merci Laurent !

En conclusion, j’espère qu’Hervé n’a plus raison. Je dois reconnaitre que son article m’avait un peu « accablé », S’il avait raison, je devais donc logiquement « changer de métier » (pas trop grave, j’ai un autre métier à temps complet, je suis retraité !).

J’ai donc poursuivi mes recherches, j’ai réécouté plusieurs fois l’excellente intervention de Sandrine au VLC2013 : Il faut obtenir, placer des liens pertinents, utiles pour l’internaute. Je me suis demandé comment nous pouvions savoir si le lien était utile pour l’internaute, et comment Google pouvait utiliser et mettre dans son algorithme cette notion de pertinence. Je pense que c’est tout simple, il suffit de calculer le CTR des backlinks !

Bien sûr, l’analyse du CTR des backlinks n’est qu’un outil possible de Google qui tient compte du page rank (ou de tout autre « cote ») du site qui vous donne un lien, de la position du lien dans la page, de la thématique, du nombre de liens sortants etc…

Qu'en pensez-vous ?

Plus sur Maxime
Maxime qui es tu ?

  • Je me croyais le plus grand référenceur de France (1,94 mètre), Alexandra m'a cassé la baraque en attribuant ce titre à Florian (2,10m)
  • Je pense être toujours le plus gros référenceur de France (115kg)
  • Je pense aussi être le plus ancien référenceur de France (65 ans bien sonnés), je bas à plate couture les dinosaures comme Olivier Andrieu.
  • Je suis le vrai référenceur breton: je suis breton, bretonnant (à l'école j'ai fait français deuxième langue ) et je suis fier de porter un bonnet rouge.

Maxime  @fandeconsoude

--- Le complément de Sylvain ---

Je dois dire que dans la logique j’adhère complètement. J’ai toujours pensé qu’un bon lien était un lien cliqué, et dans le cas des annuaires, rares sont ceux qui apportent du trafic (mais il y en a, j'ai parfois 2 à 5 visites/jour à partir d'annuaires thématisés).

Je crois moi aussi que tel qu’est conçu l’algo de Google, les annuaires peuvent être une bonne chose  lorsque l’on vient de lancer un site. Ils transmettront toujours un peu de popularité. Et c’est encore mieux si ces annuaires de départ sont spécialisés dans la thématique du site.
En revanche, sur du long terme, avoir la plus grande partie de son linking basé sur ces supports n’est pas un bon calcul pour toutes les raisons expliquées par Maxime.

Et enfin, je pense qu'avec près de 30% de part de marché de son navigateur "Chrome", Google a un mouchard parfait pour connaitre les actions des internautes. Analytics ou pas, nous sommes pistés.

A vous la parole dans les commentaires.

Edit 18 décembre : Grosse réponse de Maxime à vos commentaires.

(je recevrai un mail quand un article est publié (no spam)

44 thoughts on “Brevet de Google ? Le CTR des backlinks.

  1. Hervé

    Salut Maxime

    Très bien ton article avec une mise au point juste comme il faut sur les annuaires. Effectivement tu as raison à propos du CTR. Que ce soit pour mes clients ou mes propres sites, je dois pouvoir compter sur les doigts d'une main les clics en provenance des annuaires. Donc je te rejoins à 100% sur le fait qu'il ne génère peu ou pas de trafic.

    Comme je le disais dans mon billet, les annuaires n'ont aucune autre utilité que d'attraper du lien facile. Par contre, dire qu'ils n'ont aucune utilité aux yeux de Google, ce n'est pas exact non plus. Pour l'exemple, sur un site client pour un mot-clé qui était 14ème, j'ai fait 3/4 annuaires et il est passé en 3ème position. Je n'ai rien fait d'autre. Donc Google en tient compte. Par contre, concernant la valeur de ces liens, c'est sur que cela ne vaut pas grand chose mais il ne les ignore pas.

    Finalement on parvient à se rapprocher dans nos idées. 🙂

  2. Nicolas Augé

    Bonjour Maxime et Sylvain,

    cela fait un moment que la communauté parle du CTR et nous supposons que Google l'ait inséré dans une couche de son algo.

    Cela doit être en partie vrai. Je dis en partie car j'ai encore de gros doutes sur le fait qu'actuellement ce soit un paramètre à part entière dans le calcul du positionnement : d'ailleurs y a-t-il eu un brevet de la part de Big G qui pourrait entrevoir cette possibilité ?

    Donc, bien que je conçoive tout à fait la pertinence d'avoir un lien cliqué, c'est d'ailleurs ma façon de netlinker, je pense que cela concerne beaucoup plus le SEM (search engine marketing) que le pur SEO.

    Après la grande interrogation du moment peut tout simplement résider dans la mutation du métier de SEO qui tend, d'après moi, à se rapprocher de plus en plus vers le métier de SEM ! 😉

  3. Loïc Hélias

    La donnée "user" est sans aucun doute la dimension fondamentale à admettre pour les prochaines années. Pas qu'elle constitue la mort du netlinking, mais bien car c'est elle qui reflète au mieux la réalité et intègre le maximum de composants permettant de déterminer {l'utilité|pertinence|légitimité} d'un site.
    Google n'a aucun autre moyen de déterminer avec précision la qualité d'un site. Etant toujours à la recherche de l'économie, il devra s'appuyer sur les foules pour "noter" les pages web.
    - analytics
    - chrome
    - android
    - gmail
    - g+
    - ... tout en fait hein ^^
    Un Mechanical Turk à l'échelle planétaire, gratuit et fiable... enfin ... pour le commun des mortels.
    Les prochaines offres SEO comprendront elles des réseaux de botnets cliqueurs ?
    Je vous laisse méditer 😉 là ça devient vraiment intéressant !

  4. Sylvain (xSpin)

    Approche intéressante.
    Je vois un lien assez direct avec l'algo de base de Google, le pagerank, et le modèle du surfeur aléatoire sous-jacent:
    Dans le modèle "standard", le surfeur aléatoire peut suivre un lien au hasard sur la page.
    Il serait logique d'améliorer la performance de ce modèle en lui donnant un comportement plus proche d'un surfeur réel moyen, donc en pondérant les chances de visiter un lien par les clics d'internautes réels sur ces liens.

  5. Aurélien Debord

    Intéressant ce nouvel article. Je pense en effet qu'un des critères que doit utiliser l'algo pour juger de la qualité est ce CTR. Un jour peut-être entreront en compte la durée de visite moyenne de la page d'où provient le lien ou encore son taux de rebond.

  6. Arnaud

    Hello vous deux,

    Intéressant cet article, si Google prend en compte de plus en plus le CTR, on devrait plutôt s'en ravir puisque ça va mettre en avant les liens de qualité (et non les bourrins). Après on peut parler de la pertinence ou non des annuaires dans une stratégie seo, générant un trafic quasi nul mais il faut prendre en compte aussi le type de site en question (institutionnel, mfa, monétisation...) mais pour un site client c'est limite je trouve, peu d’intérêt.

    Bon article 🙂

  7. Sylvain Auteur de l’article

    @ Nicolas
    Guerre de vocabulaire, mais le SEO fait partie intégrante du SEM, non ?

    @ Loic
    Je crois beaucoup aux robots cliqueurs pour ma part...

    @ Aurélien
    Ne crois tu pas que le taux de retour dans la SERP ou la durée de visite d'une page sont déjà largement pris en compte ?

  8. Nicolas Augé

    @ Sylvain, si c'est le cas alors il faut non plus utiliser SEO mais SEM ! 😉

    Perso, je pars du principe que si ces 2 mots coexistent c'est parce qu'ils n'ont pas les mêmes objectifs ou la même définition.

    Concrètement, dans le cas du SEO, le CTR n'a normalement aucun impact (divers études tendent à montrer que le CTR ne jouerait aucun rôle dans le positionnement d'un site) alors que dans le cas du SEM, ou si tu préfères du webmarketing sur les moteurs de recherche, le CTR fait partie des données les plus importantes à suivre ...

    Bref, si je peux me permettre un adage, "ce n'est pas à un vieux singe que je vais apprendre à faire la grimace" mon cher Sylvain. 🙂

  9. Sylvain Auteur de l’article

    @ Nicolas
    Je n'ai rien compris 🙂
    Le SEM, c'est ce qui regroupe le SEO, le SEA, le SMO.
    En gros, c'est tout ce qui concerne le marketing sur les moteurs de recherche.
    Voir mon lien :
    Ou celui-ci : http://www.leonard-rodriguez.com/blog/search-marketing/seo-search-marketing/definition-sem-seo-sea-smo-search-engine-marketing-421

    Mais pour revenir sur le sujet, je pense au contraire de toi que le CTR (le fait qu'un lien soit cliqué) a un fort impact.
    Pour expliquer cela de manière concrète.
    Si tu es 3ème dans la SERP et qu'au fil des mois c'est ton résultat qui est majoritairement cliqué, ta position montera, peut-être jusqu'à la première place.
    @alexaloola1 avait fait des choses sympas sur ce principe avec zenoposter.
    Je pense que Loïc Hélias ne me contredira pas 🙂

  10. Nicolas Augé

    @Sylvain, ah mais moi je ne demande que ça qu'on me démontre par A + B que le CTR jouerait bien un rôle dans l'algo de Google. 🙂

    Mais effectivement sans preuve que j'aurais pu vérifier de mon coté, je préfère rester prudent plutôt que de déclarer l'inverse. 😉

    Pour le SEM, je ne vais pas revenir dessus vu que je fais le distinguo de mon coté ... Penser positionnement n'est pas la même chose que de penser stratégie webmarketing.

  11. Maxime

    Bonjour à tous et merci pour vos commentaires,
    Merci Sylvain d’avoir bien voulu poster cet article.
    @Hervé, tout à fait d’accord, les liens d’annuaires marchent pour de petits sites et pour de nouveaux sites (comme l’écrit d’ailleurs Sylvain). Par contre je pense que google peut pénaliser des sites ayant trop de backlincks qui n’ont jamais été cliqués. J’ai un site et un blog pénalisés par penguin (ce qui explique mes recherches). Je n’ai pas trouvé d’autres explications que trop de liens d’annuaires pourtant mis en place doucement mais dont la moitié n’a jamais apporté la moindre visite.
    @Aurélien, Pour les sites référents apportant des visites, j’analyse effectivement le nombre de pages visitées (ou le taux de rebonds ou le temps passé sur la page). Si l’internaute passe du temps sur le site c’est qu’il l’intéresse ! Le lien est donc pertinent !
    @Nicolas, j’aimerai beaucoup connaître ces études qui démontrent que le CTR n’a aucun impact en SEO. Pour ma part dans les pénalités penguin que j’ai subies je n’ai pas trouvé d’autres explications. Le pourcentage des liens provenant d’annuaires était faible mais représentaient environ la moitié des domaines référents et pour la plupart le nombre de clics était égal à 0

  12. Diije

    Parlons un peu technique : vous rendez-vous compte de la quantité de données à analyser pour Google pour mettre en place de tels tests ? Ca n'est tout simplement pas réaliste ! En tout cas pas à grande échelle. Qu'il utilise ce genre de tests sur l'environnement de sites déjà suspicieux, pourquoi pas.
    On a beau être à l'ère du Big Data et savoir que GG a une énorme puissance de calcul, n'oublions pas que la priorité pour lui reste de servir des pages de résultats correctes à ses utilisateurs. Et les fondamentaux pour ça réquisitionnent déjà une énorme part de ses data centers ...

  13. Nouméa@ref.nc

    Difficile de parler de réf annuaire, vu que dans le meilleur des cas nous en avons 10 de dispo au maximum par site

    les annuaires majors généralistes n’indexent plus 100% des pages hormis le couple wri / indexweb

    Les payants en plus d’être payant continue d’ingurgiter des 1000 caractères la page au lieu de purger leur bête afin de passer a travers les filtres anti spin de Google, et quand 1 page est indexée, ce qui est rare, si l’url n’est jamais demandée la page finit par se désindéxer tot ou tard.

    On peut trouver du jus dans les tout nouveaux annuaires si le webmaster ne tient pas son annuaire comme un idiot, genre il commence par créer 500 catégories vident… ou il marque en gros « annuaire pour les webmasters «

    Seul les annuaires thématisés restent un bon placement, le vice est qu'ils sont rare, voir il n'y plus de place quand ils existent.

  14. Rodrigue

    L'expérience utilisateur doit être la première chose à laquelle penser lorsqu'on crée un annuaire.

    Sur mon dernier projet, j'ai mis en place un système de vote qui permet de faire remonter les fiches les plus pertinentes de leur catégorie ! Par là j'espère vraiement fournir aux utilisateurs, des fiches qui leur servent, et sur ces fiches le lien est bien mis en évidence afin de favoriser le clique de l'internaute.

    Je suis 100% d'accord sur ton analyse et même si les annuaires comme ils le sont aujourd'hui, apportent de meilleurs positions, je pense qu'on verra des changements dans le sens de cette analyse, avec le temps.

  15. Christian Méline

    Il est presque aisé de simuler un trafic humain sur un site, sur des liens, etc. :
    – depuis le début du web, le trafic peut être acheté auprès de site disposant d’une tonne de surfeurs que l’on paie pour cela ; on peut effectivement également le faire via des services AMT
    – je ne dis pas que cela ne pourrait pas être candidat pour être intégré dans l’algo, mas on en reviendrait aux mêmes « incapacités d’interprétation » qu’avec le taux de rebond…
    – il faut remarquer que nombre de sites obtiennent de bons résultats rien qu’en injectant (donc par piratage) des liens foireux sur des sites où ces liens sont invisibles et non cliqués.
    – Par contre, je crois beaucoup à un facteur « intérêt » général de l’internaute vis-à-vis d’un site, mais sa pondération est finalement assez faible semble -- il.

  16. Nicolas Augé

    @ Maxime,

    je n'arrive plus à retrouver l'une des études, j'aurais du bookmarquer. Mais, je vais continuer de chercher ...
    Sinon, je rejoins complètement le commentaire de Diije.

    Pour en revenir au SEM, j'ai été confronté un nombre incalculable de fois à des collaborateurs qui pensaient SEO / SEA / SMO sans y mettre l'aspect stratégie webmarketing. Donc, peut-être qu'en théorie SEM = SEO + SEA + SMO mais en pratique, je trouve qu'il manque quelque chose pour que cette formule soit vérifiée.

    D'autant plus que ça peut potentiellement induire en erreur : le raccourci est facile de se dire qu'en faisant du ref nat, du ref sponso et du marketing social, on fait ce qu'il faut.
    Or sans une réelle stratégie de marketeux en amont, il manquera l'ingrédient primordial qui fera qu'un projet sera viable ou pas ...

    Voilà le fond de ma pensée.

    Après, compte tenu que la grande majorité des pros ont l'air de penser que cette formule est la seule vérité, je doit sûrement être dans l'erreur ! 😉

  17. Yann

    Hello,

    Très intéressant, mais le bien-fondé de ce raisonnement repose sur trop de "peut-être".
    Et quand bien même, j'ai immédiatement pensé en lisant l'article qu'il suffirait de compenser avec des clics factices, ce qui rejoint complètement Loïc, Sylvain D, Sylvain (Axe) et d'autres.

    D'autres part, je ne suis pas d'accord dans le sens où le CTR sur lien ne répond pas à la problématique de la qualité.
    Par exemple, si je me renseigne sur le terme "SMO" en lisant un article, et que cet article contient des liens vers Wikipedia, Abondance, Axe-Net ou le Promoteur Internet, rien ne m'incite à cliquer car je connais déjà ces sites. Or, ces liens apportent pourtant une réelle valeur ajoutée à l'article, en permettant à l'internaute de continuer sa recherche grâce à ces ressources complémentaires.

    Ces liens sont très importants car ils renforcent l'autorité en présupposant que l'auteur de l'article s'est déjà renseigné et maîtrise son sujet. Perso, j'ai une tendance forte à bookmarker ce genre de page exhaustive, en partie, justement, pour ses liens que je n'aurais pas à rechercher par la suite même si je ne les suis pas immédiatement.

    Cela reste aussi valable, amha, pour les annuaires, dont la valeur ajoutée pour l'internaute est la "collection" : avoir n sites qui traitent du même sujet sur une seule page n'est jamais négligeable quand on recherche une information. Pourquoi est-ce que cela devrait disparaître ?

  18. Nicolas Augé

    @ Sylvain, désolé de poster encore une fois mais j'ai compris d'où venait mon erreur : j'ai confondu Rich Snippet et CTR.
    Promis, après j'arrête. 😛

    @ Maxime, je n'ai pas retrouvé les études là-dessus, juste un article intéressant.

    Voici l'article en question qui explique que l'intégration de micro-données n'a aucune influence sur le positionnement :

    Je n'irais pas jusqu'à dire que puisque les Rich Snippet augmente le CTR et compte tenu que les micro-données n'influence pas le positionnement, alors par voie de conséquence ce doit être pareil pour le CTR.

    Néanmoins, j'ai du mal à comprendre pourquoi Google n'utiliserait pas les micro-données pour améliorer la pertinence de son algo alors que dans le même temps, il utiliserait volontiers le CTR des backlinks ?

    Cela serait d'autant plus incompréhensible que dans les 2 cas, à savoir les micro-données et le CTR des BLs, il est assez facile de fausser les "metrics" ! 😉

    Qu'en dites-vous ?

  19. Maxime

    J’avais proposé mon article à Sylvain pour bénéficier de vos collaborations, vos commentaires se complètent, c’est vraiment intéressant, merci !
    Je continue à penser qu’un lien est utile s’il est cliqué. Si la page reçoit, par exemple, 10 000 visites sans un seul clic ce lien est vraiment inutile. Si vous avez mis en place un robot cliqueur, vous pouvez déterminer le nombre de clics émanant de « vrais internautes » et le nombre de clics provenant de vos robots ou de la « tonne » de surfeurs de Christian.
    @Yann, l’article repose effectivement sur des peut-être ; je ne suis pas membre de l’équipe google.
    Tu écris : « ces liens apportent pourtant une réelle valeur ajoutée à l’article, en permettant à l’internaute de continuer sa recherche grâce à ces ressources complémentaires », c’est exactement ce que j’ai voulu dire.
    @Rodrique, j’apprécie vraiment ton commentaire. Je pense que les propriétaires d’annuaires ont des actions à mettre en place pour faire revivre ce type de sites.
    @diije, je ne suis pas du tout compétent pour connaitre les besoins en data. Je pense que ces datas existent déjà avec google analytics et google webmastertools, mais je peux me tromper.
    J’espérai aussi quelques commentaires sur les liens internes. Mon analyse m’a permis de déterminer des liens internes inutiles. Je trouve que l’on peut en tirer des enseignements intéressants (pourquoi ne sont-ils pas cliqués ? comment y remédier, quelles conséquences pour des pages qui sont de ce fait peu visibles…). Qu’en pensez-vous (pour la vie du site et pour google)?

  20. Arnaud

    Intéressant, ça fait un peu peur de voir Google utilisé son outil d'analytics pour améliorer son algo de recherche, mais il faut bien qu'il le rentabilise. Par contre, le clic sur des liens peut être automatisé autant voir beaucoup plus facilement que la création de backlinks.

  21. Sylvain Auteur de l’article

    @ Diije
    Pour ma part, je ne parlais pas de tests, mais d'une réalité que je crois déjà en place.
    Les données, Google les a déjà, un exemple avec ce qu'il nous donne déjà à nous pauvres webmasters sur Analytics :
    https://blog.axe-net.fr/img/clics.jpg
    Alors je serais quand même surpris qu'il n'utilise pas ces datas, même partiellement, ou bien en y appliquant une pondération quelconque. Ne seraient-ils pas neuneus s'ils s'en passaient ?

    Bien sûr, le taux de clics peut être falsifié avec des robots, mais pas plus que les baclinks ne peuvent être factices (je parle de la définition de Google quand je dis « factices »).
    Et d'ailleurs, mesurer les clics sur ces liens paraît être un bon moyen de lutter contre le spam.
    À ma connaissance, je ne pense pas qu'il y ait beaucoup de gens qui à la fois scrappent, spamment, et lancent les robots pour faire cliquer. Ça viendra sans doute...

    D'ailleurs, @ Yann
    Tu dis que les liens ne sont pas cliqués par toi, car a priori tu connais déjà les pages de destination, mais qu'ils sont utiles aux autres utilisateurs. Donc a priori, ils seront cliqués... par les autres 🙂
    On revient donc à l’intérêt de mesurer ce taux de clic.

    @ Tous

    J'ai souvent l'impression que lorsque l'on émet l'idée d'un facteur qui pourrait être pris en compte par Google, on se fait souvent rembarrer, car :
    C'est irréaliste, cela coûterait trop cher, c'est falsifiable, etc. rayer les mentions inutiles.
    Et tout le monde revient sur les soi-disant 200 facteurs dont Google nous rebat les oreilles.

    D'un autre côté, quand je vois que Yandex (le moteur russe) communique lui sur les plus de 500 facteurs qu'il utilise, cela ne choque personne.

    On oublie aussi parfois par exemple le volume de data gérés par la NSA. J'avoue humblement qu'ils ne m'ont bien évidemment pas communiquer leurs chiffres, mais traiter un volume délirant de données ne leur fait pas peur.

    Je pense que le search n'est évidemment pas la première préoccupation de Google. Mais une boite qui dégage 1 milliard de bénéfice par mois a quand même quelques moyens à mettre sur cette partie de leur business qui est la grosse partie visible et surtout le support du gros de leur CA.

    Bon, je suis comme vous hein ! Je n'en sais pas plus que vous sur ces points précis, mais je raisonne souvent en me disant "Que prendrais-je en compte si je devais lutter contre tous ces petits filous de SEO ?"
    Et bien dans ce cas précis, je me dirais que de traiter ces données algorithmiquement me couterai nettement moins chers que la pelletée d'humains que je paye déjà pour contrôler la qualité des résultats...
    Même si ces humains sont utiles (indispensables) à l'heure actuelle.

    Bref, une société qui fait rouler des bagnoles sans conducteur sur des routes normales a sans doute les moyens de savoir quels liens sont cliqués et d'intégrer cela dans son algo.

    Qu'en pensez-vous ?

    @ Nicolas
    OK, CTR = Click Trough Rate = taux de clic (pour résumer). Rien à voir avec les rich snippets dans cet article 🙂

    @ Nouméa
    Tu devrais mieux choisir tes annuaires 🙂
    Je te jure que certains apportent des visites, mais ce ne sont pas forcément les plus connus de la sphère SEO.

    @ Arnaud
    Je ne dis pas que ce n'est pas possible, loin de là, j'y crois beaucoup.
    Mais c'est quand même moins simple qu'il n'y paraît.
    Quand on voit que l'on arrive à identifier un internaute rien qu'avec la signature ultra personnelle de son navigateur, cela veut dire qu'il faut mettre en place une belle usine à gaz pour ne pas être repéré en trois coups de cuillère à pot par un algo.

  22. Nico

    @sylvain.

    Je serais curieux de connaitre la procédure de configuration pour connaitre le TX de clics sur les différents éléments lien de ton site comme le screen que tu as mis? Un sujet pour un futur article?^^ Existe t'il un tuto pour faire ça?

  23. jessyseonoob

    Bon allez je commente et ensuite j'irais lire tous vos commentaires 🙂
    Je ne crois pas à l'histoire du CTR dans les SERP.

    Cela voudrait dire qu'un site ne pourrait pas ranker sur une requête parcqu'il n'a pas de visite. Comment pourrait il avoir un CTR s'il n'y a que 3 clampins dont le webmaster qui vient cliquer sur un lien ?

    @sylvain J'ai un site que tu connais qui n'a pratiquement aucun traffic, ni de liens (snif, je paye ma glandouille a ne pas avoir essayé de créer du lien). Par contre niveau ancienneté il a plus d'un an.

    Malgrès tout il se positionne au moins dans les 4 première page sur certaines requête (oui je m'attendais pas à mieux).

    Je vais tester les annuaires pour voir. A mon avis je n'aurais pas de traffic à ce niveau, mais le contexte thématique dans lequel le lien sera entouré devrait pouvoir me faire prendre des positions. Certains ont pris du PR, mon avis, c'est signe d'une confiance accordée par gg et le lien, pas le clic, serait valorisé.

    J'en ai un autre qui a la même typologie : pas trop de liens.

    Je suis dégouté, j'arrive trop tard sur les plans 🙁 les adsense, avant ça, alladvantage, et je comprend christian lorsqu'il dit que les clics ça se simule, ça a causé leur perte.

    Tien d'ailleurs l'objectif de google ce ne serait pas d'atteindre les 100% de taux de rebond dès la première recherche ?
    😉

    Autre petit détail qui a son importance :
    Avez vous remarqué que lorsque vous vous déconnectez d'un compte, le formulaire de connexion a changé et vous avez un lien : "Gérer les comptes sur cet appareil "

  24. Laurent.G

    @Sylvain
    merci pour ton commentaire, mais si en plus on attends du trafic d'annuaires, des clics, je passe je passe je passe. Fait le calcul: combien de liens positionnés en combien de temps pour combien de clics? ca doit pas voler haut, sinon c'est qu'il y a un problème si le site tire son ref des annuaires.

    Un mailing c'est xfois + puissant qu'1 ref annuaire. et en ce moment ca y va a fond sur les visuels joyeux noel et bonne année. j'en redemande chaque année 😉

    Au fait, pour avoir ta liste de très bon annuaire, faut coucher ?

  25. Sandrine

    Tout d'abord merci pour les compliments sur ma présentation au vlc2013 🙂

    Je plussoie cette analyse, je reste convaincue que c'est un des moyens les plus simple de savoir si un lien est intéressant pour un internaute ou pas et qui permettrait de le "noter". Si le lien plait à l'internaute, il va plaire à GG, cela me semble couler de source.
    Ensuite que ce soit un annuaire, un site de cp, un article ... peu importe ! Peut être que l'on focalise trop sur les types de supports en les classant et déclassant en fonction des annonces de Matt.
    Je reste persuadée aussi que dans nos courses aux BLs nous perdons presque systématiquement l'internaute de vue et cela va devenir une erreur de plus en plus pénalisante.
    Peut être que nous devrions reconsidérer plus profondément notre vision des liens et leur importance, le temps des quantités est révolue mais peut être devons nous revoir notre concept de "qualité"

  26. Thibault

    Juste merci pour cet article et tous les commentaires qui vont avec !
    Ca fait réfléchir et au final avancer sur ce sujet complexe qu'est le SEO, celui d'aujourd'hui mais également celui de demain.

  27. François D

    Très très bon billet, une nouvelle fois.
    Fichtrement intéressant. Les chapeaux noirs frémissent je pense, car ce genre d'étude confirmerait une nouvelle fois que le contenu est roi. Un lien utile, bien en vue, dans un paragraphe intéressant semble être la clé. Corpus sémantique et thématique, quand tu nous tiens.

    F.

  28. Vanessa

    meme si google ne nous a pas habitué a beaucoup de respect de la vie privée et des données sensibles de ses utilisateurs mais cette approche serait une grave atteinte aux données des inscrits sur google analytics.
    De plus, je pense que si google scannait réellement les données d'analytics pour améliorer son algo, il n'emploierait pas unj système aussi compliqué, il suffirait de 2 ou 3 formules pour savoir en 1 clin d'oeil si un site utilise des techniques de spamming pour son référencement.

  29. Quentin

    Hello,

    Est-ce que l'IP du "cliqueur" a un rôle à jouer là-dedans ? Si oui, à quel niveau ? Est-ce que je peux, par exemple, cliquer moi-même plusieurs fois sur le lien que je viens de créer pour simuler une activité ou dois-je obligatoirement passer par un proxy ?

    Aussi, les tests pour démontrer la théorie ne devraient pas être compliqués à mettre en place pour ceux qui maîtrisent l'art de l'automatisation. Y a-t-il eu des études faites là-dessus ?

  30. Olivier

    Je suis bien d'accord avec l'idée générale, d'ailleurs ça fai partie des choses que j'explique en formation depuis environ 5 ans, et notamment de façon détaillée au cours des explications sur Panda et surtout Pingouin.
    Je pense que c'est surtout avec Chrome que Google peut nous pister, pas besoin de Google Analytics (surtout qu'avec toutes les erreurs d'implémentation du code...).

    Par contre je m'attendais en lisant le titre à entendre parler d'un brevet, mais ce mot ne fait pas partie de l'article : décevant !

  31. Véronica

    Oh mon dieu que ca commence à devenir difficile... si il faut avoir tous ces raisonnements dans la mise en place d"un netlinking, on peut croire qu'on a totalement tort dans tout ce que l'on a fait jusqu'à présent, moi je part de l'idée qu'il faut apporter du contenu utile à l'utilisateur, donc qui dit demande dit offre, la demande étant un produit spécifique par exemple, et l'offre, la qualité de la présentation de notre contenu... et j'arrive à avoir des résultats, franchement les différents changements comme Panda, Penguin et autres n'ont pas changer ma manière travailler en dix ans... article intéressant néanmoins, on dirait la psychanalyse du référencement lol bonsoir à vous

  32. yombee

    Bonjour.
    M’intéressant depuis quelque temps au référencement je dévore avec intérêt les conseils de "ceux qui savent" et en tombant sur cette article je suis un peu perplexe sur une phrase en particulier. Je cite :
    "Si vous avez un outil de webanalytics vous savez quels liens sont cliqués par les internautes. Si vous avez un paquet de liens jamais cliqués vous devriez les enlever, il est prouvé qu’ils ne servent à rien ! S’ils ne sont jamais cliqués (même pas une fois), pourquoi les laisser "
    Alors certes, cela fait référence aux liens internes. Personnellement j'utilise wordpress et des plugins de soe qui me disent de faire au moins un lien externe depuis chaque article. Le fait qu'il soit cliqué ou non n'a pas beaucoup d'importance semble t-il. Si j'en met, c'est parce que la page sera mieux référencée si les robots google trouvent un lien externe que s'il n'en trouve pas.
    Le raisonnement est correcte ou je dis n'importe quoi ?

  33. Sylvain Auteur de l’article

    @ Vanessa
    Regarde mon commentaire n° 21, ça existe déjà.
    Et puis pourquoi penses tu que Google a dépensé des millions pour faire adopter son navigateur Chrome ?

    @ Quentin.
    Cela va bien plus loin que la notion d'IP.
    Je te laisse lire cela :
    http://www.zdnet.fr/actualites/sphere-privee-et-experience-panopticlick-l-empreinte-unique-de-nos-navigateurs-internet-39712626.htm

    @ Yombee
    Donc si je comprends, c'est un plugin qui te dis de mettre des liens même si cela n'a aucun interêt pour tes visiteurs...
    Au départ, un lien est quand même fait pour être cliqué, non ? Je ne dis pas qu'il le sera à chaque fois, mais le fait de ne mettre en place des liens QUE pour le SEO est justement l'objet de cet article. Je pense comme Maxime que c'est un bon moyen pour Google de dévaloriser des pages en fonction du comportement de l'utilisateur.

  34. Maxime

    Bonjour à tous,
    Après avoir lu tous vos commentaires intéressants je vous retrace ci-dessous mes propres conclusions, sachant que j’ai proposé cet article à Sylvain pour en apprendre plus grâce à vos réactions (une formation gratuite en quelque sorte !)

    1 : Je pense toujours que le CTR des liens est utilisé par Google ou qu’il le sera rapidement si ce n’est déjà fait. Je reconnais (Olivier) que le titre de l’article est un peu accrocheur, il y avait un point d’interrogation, je n’ai pas trouvé d’autre titre et Google n’a pas besoin de déposer ce type de brevet pour utiliser le principe.

    2 : J’avais pensé à Google analytics et à Google webmastertools comme source de données parce que c’est celles dont on dispose. Je n’avais même pas pensé à chrome qui effectivement apporte des infos énormes à Google, merci Sylvain pour ce rajout !

    3 : Je pense vraiment que le coût des datas n’est pas un problème pour Google, d’une part Google ne manque pas d’argent mais de plus je suis persuadé qu’il dispose déjà de ces datas.

    4 : Je suis naïf, mais je n’avais absolument pas pensé aux robots cliqueurs. L’article aura au moins servi à m’apporter ce renseignement important. Par contre je ne crois pas que vous êtes nombreux ou que vous allez être nombreux à utiliser cette technique pour les sites de vos clients, pour vos money sites ou pour vos sites ou blogs « passion ». De plus je pense que là encore Google a les moyens de savoir s’il s’agit d’un véritable internaute avec une vraie adresse email, une adresse physique, une IP non cachée derrière un proxy, etc… Je sais que certains d’entre-vous trouverez toujours des techniques « énormes » pour tromper Google mais je pense pour des sites de seconde zone.

    5 : Les annuaires. Je pense qu’aujourd’hui les liens d’annuaires apportent, en général, très peu de visites. Ils sont donc peu utiles pour les internautes. Les annuaires sont aussi, souvent, à la ramasse, sans doute, parce qu’ils ne sont pas très rentables (je n’ai pas de chiffres, juste une hypothèse). Aujourd’hui, je viens de parcourir un annuaire thématique que je pense bon. J’ai été sidéré de voir le nombre de liens cassés. Je ne dis pas que les annuaires doivent disparaitre mais je pense vraiment, comme Rodrigue, qu’ils doivent changer. Je pense aussi que si nous utilisons des annuaires nous devons les aider en essayant de leur apporter du trafic. Bien sur les annuaires restent utiles au tout démarrage d’un site comme vous l’avez dit. Je rajoute un point qui explique pourquoi , personnellement, j’ai, par le passé, trop utilisé les annuaires. Je me plaçais dans le cas d’un baby-sitter qui recherche des clients. Je mets une annonce dans tous les commerces de mon secteur. Je n’ai jamais pensé que google pouvait pénaliser un tel comportement.

    6 : le CTR des liens est à mon avis important mais le nombre de pages vues, le taux de rebonds, le temps passé sur le site … sont aussi très importants. Grâce à cette recherche j’ai été plus loin dans ce travail et j’ai repéré des sites qui apportaient pas mal de visites mais des visites furtives et que les liens d’autres sites apportaient peu de visites mais des visites « payantes ». Bien sur nous faisons tous ces analyses mais cette fois j’ai été plus loin dans la mienne.

    7 : Une vraie déception : aucun commentaire sur les liens internes. Je ne pense pas être le seul à penser que les liens internes sont importants. L’analyse que je viens d’effectuer sur le CTR des liens internes de quelques sites m’a donné des résultats que je pense très utiles.

    8 : J’ai été impressionné par le service après-vente de Sylvain. Ses commentaires sont limpides et ont été très utiles pour moi, merci

  35. Light On SEO

    C'est intéressant mais à mon avis on part un peu loin avec ce CTR des backlinks.

    J'ai pas assez de connaissances pour affirmer "ça coûte trop cher à calculer", mais comme ça, juste à l'idée... ça me parait colossal !

    Mais pourquoi pas, si Google à les moyens. Si cela lui permettait d'en finir définitivement avec les backlinks peut être que... sauf que je suis pas convaincu que le CTR de l'utilisateur soit à la base un signal de qualité, et je suis pas convaincu que "la qualité" (qui n'est pas plus qu'un concept) soit une priorité pour Google.

    Google s'en contre fiche des "liens de qualité" ce qui l'intéresse sont les "liens naturels", c'est pas du tout la même chose. Donc à mon avis Google n'est pas en chasse contre les liens de mauvaise qualité, mais en chasse contre les liens surnaturels, et je pense qu'il a des moyens beaucoup plus efficaces pour en dégager un bon paquet.

  36. JB

    Et en matière de puissance de calcul, quelqu'un peut-il dire si on reste rationnel avec toutes ces suppositions ?

    Je veux dire par là du point de vue de Google, est-il rationnel de rajouter cette surcouche dans l'algorithme, si on compare le gain de qualité des SERP avec le coût des milliards de calcul supplémentaire que cela induit ?

  37. Sylvain Auteur de l’article

    @ JB

    Sincèrement, je suis assez surpris des différentes remarques concernant ces calculs.

    Comme indiqué dans mon commentaire n° 21, Google le fait déjà et nous le montre dans Analytics.Alors pourquoi ne s'en servirait-il pas ?

    - Je passe sur la récupération complète de l'historique de 6 mois de navigation que Google fait grâce à ses cookies et ceci pour chaque internaute qui se rend sur le moteur ou n'importe quel service de GG.
    - Je passe aussi sur les données Wifi que Google a d'ailleurs été accusé de collecter.
    - Je passe sur la récupération de la totalité des actions effectuées par un utilisateur de Chrome.
    - Je passe sur le traçage cartographique des déplacements d'un utilisateur de téléphone Android.

    Bref, pourquoi Google collecterait-il ces milliards de données ? Pour ne pas s'en servir ?
    Évidemment, je ne connais pas l'algo, mais avouons quand même que GG a là une sacré matière pour qualifier des liens. C'est simple, rapide, facile, et il possède toutes les données pour le faire.

  38. Monica Médias

    Effectivement, il est évident que le calcul d'audience des backlinks paraît un travail d'Hercule miniature par rapport aux chantiers pharaoniques entrepris par Google comme par exemple la cartographie de l'Himalaya ou de la moindre impasse de son quartier.

    En poussant la logique jusqu'au bout, si GG possède tout cet océan de Data depuis belle lurette sans trop l'optimiser, alors cela confirme comme tu l'annonces régulièrement que le PR est déjà rangé au rayon des critères en bois.

    Certes la cliquabilité des BL semble l'outil le plus logique qui aurait pu sauver le système des annuaires et du netlinking en général, mais les génies de Mountain View, sans pouvoir désavouer le Page Rank qui a fait leur fortune, ne sont-ils pas passés à autre chose, d'aussi monstrueux, quelque chose nommé "Entités Nommées" ou encore "Intelligence Artificielle" via "Authorship", "Sémantique" et "Knowlegde Graph" organisés?

    (Chrome vous souhaite une bonne année, de très près :-))

  39. Jérôme

    Il y a des choses que Google peut faire, et d'autre qu'il ne peut pas. C'est l'une des premières choses que les frères Peyronnet ont d'ailleurs évoquée lors de la MasterClass SEO. L'utilisation du CTR pour calculer la popularité d'un lien fait partie des choses que Google est tout à fait capable d'utiliser comme il possède déjà ces datas (je rejoins ton commentaire 21).

    Je suis également du même avis que Loic Helias. Doit va utiliser tout ce dont il dispose pour calculer la popularité d'un lien. La réflexion globale amenée par l'article est intéressante mais elle fait peur 😀 Un bon lien est un lien cliqué. Donc on part du principe que le cible sur lequel est posé le lien génère déjà un trafic qualifié. Mais ce n'est pas tout, il faut encore que le lien intéresse et soit visible. Il y a une telle succession de 'si' et de 'mais' que Google ne peut pas tenir compte uniquement de ce critère à mon humble avis.

  40. Olivier (AM)

    En tant qu'annuairiste la question que je me pose est la suivante : est-ce que les liens que je propose sur mon annuaire sont naturels ou artificiels. Tous les sites de l'annuaire sont modérés et la ligne éditoriale est 100% éthique. Donc les liens "devraient" être naturels. D'autant plus que certains sites ont reçus des milliers de visites de mon annuaire.. Bien que je ne me plains pas de sanction, le trafic n'est plus aussi florissant qu'avant. Si Google considère les liens comme artificiel, la solution serait-elle de passer tout l'annuaire en NOFOLLOW ? Qu'en pensez-vous ?

  41. Sylvain Auteur de l’article

    @ Olivier

    Bonne question ! En fait, cet article se place de l'autre point de vue qui consiste à valoriser les liens en provenance d'annuaires. Si on se place du côté de l'annuaire, la logique est aussi à mon avis de ne pas paraître comme exclusivement conçu pour améliorer le positionnement des sites sur Google.
    Il faudra aussi faire attention à la duplication de contenu, etc.

    Si tu modères bien, si tes ancres de liens sortants ne sont pas suroptimisé, si ton annuaire apporte un vrai service (et de préférence plus qu'un annuaire lambda), si les pages de présentation des sites sont suffisamment fournies en contenu, etc. L'annuaire peut passer comme un site faisant des liens naturels.

    En gros, si rien n'est bourriné et si en plus tu travailles toi même un peu ta visibilité pour générer du trafic, c'est jouable.

    Personnellement, à la place de Google, je me poserais surtout la question « Qu'est-ce que cet annuaire apporte de plus que ses 50000 congénères ? » Sans doute un truc à creuser pour survivre.
    Tu peux toi te poser la question « Mon annuaire serait-il utile et aurais-je des inscriptions si Google n'existait pas ? ».

    Pour ta question précise, j'ai honnêtement bien peur que tu n'aies plus beaucoup d'inscriptions si tu passes en nofollow.

  42. Olivier (AM)

    @ Sylvain

    Merci de ta réponse! Je ne peux qu'appuyer ta réflexion sur la différentiation et les services. C'est dans cette optique que j'aimerais faire évoluer l'Annuaire Misterfast. Car bien que la modération est le "cœur de métier" de l'annuaire, cela ne suffit plus. La tentation est grande pour le NoFollow, car je constate que de nombreux annuaires en NF sont bien classés sur Google. De plus, un des plus grands annuaire US HOTvsNOT est passé en NF.

    J'aimerais avoir l'avis de webmasters : inscririez-vous un site dans un annuaire en NoFollow ?

  43. J-Claude

    Bonjour,
    Très amusant, nous sommes en 2016 et rien n'a changé !
    Les annuaires font toujours des liens dont tout le monde se moque, sauf que certain les font payer très cher...
    Les blog sont nofollow pour ceux qui sont intéressant.
    Les petits autoentrepreneurs galère pour ce faire connaitre
    les gros font monter le prix des Adwords...
    Et les référenceurs se congratulent entre eux en critiquant le reste du monde qui essaye de se faire une petite place sur Internet.

Partagez sur :

Les commentaires sont fermés.