Effet mémoire des liens : remarques et questions.

Quelle mémoire pour Google ?

Le 15 aout dernier, Rand Fishkin publiait un article sur un constat relatif à l'effet d'écho des liens. En clair, des liens qui ont été supprimés, mais semblent continuer à avoir un impact sur le classement de pages web.

Ce n'est pas la première fois que je me pose moi-même la question. Je n'ai aucune certitude, je n'ai pas fait de test, mais j'aimerais partager mes réflexions et questions sur le sujet.

Le principe

Mes constats empiriques ponctuels ou les tests de Rand Fishkin paraissent conforter l'idée que si une page obtient de bons liens à partir de sites et pages de bonne qualité et les conserve au moins quelques mois (ou plus), cet effet de vote positif continue à perdurer même si un jour ces liens entrants sont supprimés. Rand parle d'effet d'écho ou d'impact des liens fantômes.

Attention, les éléments ci-dessous ne sont que des réflexions que je me fais, rien n'est testé ou validé. Je vous invite d'ailleurs à partager vos idées en commentaires.

Google horodate tout :

On sait que Google horodate tout ce qu'il indexe (normal sur des serveurs). À partir de ce constat, on peut dire qu'il se souvient forcément de tout ce qui s'est passé en terme de linking vers un site.

Il peut alors juger que si une page a reçu de bons liens, ce n'est pas parce que certains d'entre eux disparaissent que la page devrait en pâtir. En effet, la perte de liens est normale dans la vie d'un site : quand des sites ferment, quand certaines de leurs pages sont supprimées, quand ils subissent une refonte et que des pages qui contenaient des liens externes n'existent plus.

Mais ces liens ont existé et ont un jour transféré leur réputation. Google pourrait alors agir en conservant la mémoire de ces liens dans son algorithme.

Ces vieux sites indéboulonnables...

Comme moi, vous avez remarqué que certains vieux sites d'une qualité parfois discutable continuaient de squatter les premiers résultats sur certaines requêtes. Leur contenu est dépassé, le nombre de liens qu'ils reçoivent est faible, mais pourtant, ils nous devancent toujours.

Mais ces vieux sites ont reçu des liens bien thématisés dans le passé, c'était typiquement le cas de certaines pages perso dans les années 2000. Aujourd'hui, les autres vieux sites qui les linkaient ont disparu. Mais si Google applique cet effet mémoire, ces anciens liens aujourd'hui absents pourraient continuer à avoir une incidence et s'ajouter à d'autres critères pour appuyer la réputation du vieux site toujours en ligne.

Le test du désaveu.

En mars 2014, Vincent Lahaye a fait un test en désavouant tous les liens de son blog (il fallait oser) ! Quel impact sur ses positions ou son trafic ? Négligeable si l'on en croit ses retours.
On pourra toujours discuter 107 ans de ce test, mais une réponse simple pourrait tout bêtement être l'application de cet effet mémoire.

Quid de l'impact des "mauvais liens"

En poussant le bouchon, on peut se dire que si cela fonctionne pour les bons liens qui apportent de la valeur, il peut en être de même avec des liens de mauvaise qualité dont l'effet mémoire pourrait continuer à impacter négativement un site, même s'ils sont supprimés.
À moins que Google n'applique cet effet que pour les liens positifs, je ne sais pas.

Questions et réflexions diverses complémentaires.

  • Google conserve-t-il un historique des données depuis le début (1998) ?
  • Google a-t-il un historique complet des ancres de lien ?
  • Est-ce qu'une ancre de lien modifiée fait perdre de l'impact à ce lien (il semblerait que oui d'après un ancien Googler).
  • Est-ce qu'un lien très cliqué apporterait plus de mémoire qu'un autre ?
  • Est-ce qu'un lien qui devient nofollow après avoir été normal continue à donner du jus grâce à un effet mémoire ? Je ne pense pas en fait.
  • Est-ce pour cela que les liens supprimés restent parfois 2 ans dans GWT ?
  • Est-ce une explication à la difficulté de "sortir" de Pingouin même après un update ?
  • Faut-il d'autres critères en parallèle pour bénéficier de cet effet mémoire ?
  • Cet effet mémoire s’appliquerait-il bien au-delà des liens entrants ? Une sorte de mémoire du site.

En conclusion

Cet effet mémoire des liens pourrait bien exister chez Google. Qu'en pensez-vous ? Avez-vous des retours d'expérience, des intuitions, n'hésitez pas à partager en commentaire ! Cet article sert avant tout à débattre.

Effet mémoire des liens : remarques et questions.
4 (80%) 1 vote

Partager sur Facebook
Partager sur Twitter Plein
Partager sur linkedin
Partager sur Google+

31 réflexions au sujet de « Effet mémoire des liens : remarques et questions. »

  1. KOogar

    L’algo rajoute des critères et de nouveaux filtres d’années en années , il n’a peut-être ici pas eu assez de critères en action pour connaitre maintenant le poids qu’on eu ces BL, vu que ces liens ont été récoltés antérieurement et que l'algo est loin de recalculer tous les jours le poids d’un lien.

    Pour être exact Il lui faut le poids du lien pour le soustraire au poids du site, mais vu que les liens n’existent plus et qu'il ne possède pas assez d'indications exploitables sur ces liens, il les garde. Ce n’est qu’une idée...

  2. Marie-Aude

    Hello 🙂

    conservation de l'historique... pourquoi pas, sous une forme agrégée, un scoring (oui, je sais, j'y tiens). De tout, tout, tout ? sans doute pas depuis le début, mais très certainement plusieurs versions du cache, sur plusieurs mois

    En ce qui concerne les liens supprimés qui restent dans GWT, que dit le cache de la page qui envoie les liens ? a-t-elle été passée en noindex ou interdite par robots ?

    Y-a-til un effet mémoire global ? J'aurais intuitivement tendance à penser que "non", en tout cas pas en tant que tel, mais que d'autres facteurs, notamment une évolution des scores, peut arriver à donner la même impression. De même qu'un client qui achète pour cher une fois par an n'a pas le même score qu'un client qui achète le même montant mais en plusieurs petites fois, de même la dynamique d'un site peut être prise en compte.

    En tout cas, merci pour cette excellent prise de tête, ça fait du bien d'élever le débat 🙂

  3. Tony Chaparral

    Bonjour,

    Est-ce un effet mémoire des anciens liens ou tout simplement un effet tampon que Google aurait intégré à son algorithme?
    Je m'explique: j'ai été victime d'un NSEO en début d'année, mais malgré les milliers de liens pourris et ancrés, de façon désagréable dirons-nous, cela n'a nullement fait de tort à mon site.
    J'irai même plus loin, l'ancre calomnieuse n'est jamais ressortie dans les résultats de Google.
    Je pense donc que même si ce n'est pas parfait, Google a paramétré une sorte de garde-fou et cela pourrait bien expliquer cet effet mémoire, vous ne pensez pas?

    Tony

  4. ramzi

    Je rejoins Tony sur sa notion de garde-fou. Je pense également que Google a le moyen d'évaluer l'anormalité d'un lien. Comme vous, j'ai subi une attaque nseo dont je viens de m'apercevoir. Les liens toxiques ont été mis en place par un concurrent à la mi juillet. Il y a quelques jours, je constate que le site ciblé a rétrogradé de 5 pages sur sa requête phare et qu'en plus il ne se positionne plus sur la page associée depuis le début mais sur une autre page par une espèce de glissement sémantique .
    Enfin pour en revenir à la morale de l'histoire : dans la nuit le site reprend sa position normale. Du coup, on peut bien en conclure que même rétroactivement Google peut jauger des situations de la vie d'un site en qualifiant celui-ci et en lui accordant une manière de bénéfice du doute dans la mesure où certains faits qui dérogent à ce jugement ne lui sont pas imputables.
    Google en juge impartial, c'est évidemment une utopie, au moins parce qu'une machinerie aussi gigantesque ne peut pas ne pas se gripper et donc 'se tromper". Néanmoins, on est bien content qu'il y ait une certaine justice et que les entreprises médiocres d'un concurrent médiocre ne puissent pas aboutir.
    En gros, je dirais donc également que Google affecte les sites d'une "valeur" dont un des déterminants essentiel est le lien. A la limite et à l'instar de ce que dit Marie-Aude, il est fort possible que les filtres soient en quelque sorte des interrogations, des examens qui ont lieu de façon plus ou moins régulières et dont la fonction est de sanctionner le degré d'adhérence des sites aux règles inscrites dans l'algorithme. Et pour filer la métaphore de l'examen, si un étudiant a des 15 ou 16 systématiquement, on sera étonné le jour où il a un 1 ou un 2. Le lien toxique ou la disparition du lien pertinent, d'autorité c'est un peu cet accident dans la régularité de la qualité du travail qui interroge Google et lui suggère qu'il s'agit d'un fait qui ne doit pas entamer le crédit qu'il a accordé jusque la au site.

  5. Vincent Brossas

    J'ai aussi pu constater cet effet de mémoire des liens sur certaines requêtes concurrentielles dans la téléphonie mobile que j'avais un peu trop optimisées en externe et qui m'ont ensuite valu de nettoyer les liens (pénalité partielle). Les positionnements n'ont quasi pas bougés à ma grande surprise après le nettoyage (même sur des positions 1 qui ne l'étaient pas avant le travail de netlinking, netlinking qui a ensuite été retiré et désavoué) !
    Pour ma part je penche pour le fait que Google gère les liens désavoués comme des liens nofollow (qui selon moi sont toujours intéressant d'un point de vu netlinking lorsque l'on voit la proportion croissante de sites à les utiliser, Google doit forcément en tenir compte dans son algo s'il ne veut pas nuire à ses résultats de recherche).
    Google garderait les liens dans un historique ? Je suis aussi d'accord avec ce point de vu d'après mes constatations.

  6. Denis

    Je parlerais volontiers, pour ma part, d'une espèce d'effet hystérésis : "L'hystérésis est la propriété d'un système qui tend à demeurer dans un certain état quand la cause extérieure qui a produit le changement d'état a cessé."

  7. Alexandre SANTONI

    C'est possible effectivement qu'il y est une mémoire. Cependant, d'autres critères ont une importance plus importante qu'avant, pendant que la puissance du lien et la force du nombre, toujours indéniable, a baissé. Mon raisonnement qui en découle me pousse à croire que la perte de liens et le positionnement qui peut en découler est en soi contrebalancé par ces critères.

  8. Christophe+Maggi

    Il peut très bien y avoir une notion de millésime qui existe pour un ensemble de critères dont les liens.
    La question serait de savoir quelle est la durée du millésime.
    Par exemple, l'algorithme peut prendre en compte les liens (selon différentes modalités) sur une période de 1 mois à 2 ans par exemple, en tirer des résultats et ces résultats sont valables pour une durée de quelques mois avant d'être réévaluer.
    Tirer des conclusions sur ce genre d'approche sans savoir ce que Google traite et prend en compte peut finalement partir dans tous les sens.

  9. Fabrice

    C'est peut être à cause de ce phénomène que de plus en plus de référenceurs cherchent à racheter des sites existants. Mais étant donné qu'on connait le problème, Google risque de remédier a tout ça 🙂

  10. Francois

    Google avait expliqué qu'en cas de forte pénalité, changer de nom de domaine ne suffirait pas.

    Voir la littérature à ce sujet : bit.ly/1vJ3TI8

    Une signe de plus qu'ils gardent TOUT ...

  11. serge esteves

    C'est intéressant comme réflexion. Sans doute que cet effet mémoire, s'il existe, pourrait être appliqué à d'autres critères que les liens comme le dit François L. ? Peux-être aussi que la prise en compte du poids des liens agit comme un engrenage à sens unique, du coup même après suppression des liens, impossible de revenir en arrière, sauf après nettoyage via des filtres comme penguin ?

  12. Christophe

    Réflexion très pertinente. C'est que j'ai constaté moi aussi des liens fantômes dans GWT. Je ne suis pas sûr, quoique cela soit fort probable, qu'un lien fantôme ait une incidence sur le classement. Si cela est vrai, je comprend mieux pourquoi certain sont très actifs sur les forums ou sur certains blog, car souvent, les dernières participations ou derniers commentaires s'affichent sur la page d'accueil et avec souvent un lien dofollow sur le site ou profil de l'auteur. En participant souvent, virtuellement ce dernier à un lien dofollow en permanence sur la page d'accueil et même s'il arrête, l'impact peut avoir des effets sur le long terme 😉

  13. Victor Lerat

    Cela paraît compliqué. En termes de coût pour la firme et de puissance énergétique ça serait inimaginable si Google conservait tout à 100%. Je dirai qu'il conserve une note à date X (ancienne) et qu'avec sa nouvelle note, il pourrait déduire une note à date actuelle. Si la note ancienne était pas bonne alors il est plus difficile de remonter, à l'inverse ça expliquerait aussi pourquoi les gros sites s'en sortent bien. Avec une note élevé, et leur nouvelle mauvaise note, il descende moins vite et donc conserve un bon positionnement ...

    Voilà pour moi 🙂

  14. Ghislin

    Réflexion intéressante, je n'avais pas vu l'article de Vincent et son test...
    L'effet mémoire, en effet, c'est loin d'être saugrenue comme idée. Tout recenser depuis 1998, je ne pense pas, mais aujourd'hui c'est fort probable.

    Perso, je n'ai pas l'expérience des anciens SEO, mais, est-il illogique de penser qu'une société telle que Google est un logiciel CRM en interne dédié aux sites ? Une sorte de fiche d'identité (ou carnet de santé ?!)? Je ne crois pas que leur objectif soit de pénaliser pour le plaisir.

    Pour les vieux sites indéboulonnables, aussi dépassés soient-ils, ils sont vieux. Combien de sites sont mis en ligne et ferment 2 /3 /4 ans après ? Le vieux site est un repère parmi tant d'autres à mon sens.

    La question que je me pose perso, c'est : quel est l'échelle de temps utilisée par Google ? C'est quoi du référencement long terme ?
    Se prendre une pénalité et perdre du CA pendant 1 an ou 2 ans, c'est "plus que rude"... et très certainement extrêmement compliqué à expliquer au client. Après, mettons "2 ans de pénalité" sur un site qui compte être en ligne 20 ans, c'est dramatique sur le coup mais peut-être absorbé sur le long terme (ou pas et c'est là où c'est délicat et injuste).

    Après, je n'ai pas travaillé sur moults sites internet (concurrentiels ou non) et suis loin d'être un expert...

  15. Kurg

    Bonjour,
    Voici une question au combien intéressante qui m'est apparu bizarrement au SMX 2013, lors de la conf sur youtube... J'ai alors pensé à un sac percé. Ce sac représentant la notoriété global du site. Il peut lui même contenir d'autres sacs percés. On ajoute dans les sacs les liens pondérés. Je dis percé, car avec le temps les sacs perdent de la notoriété.

    Si on arrête d'un coup tous les approvisionnements en liens sur tous les sacs, les sacs perdront progressivement de leur notoriété, mais aucun en flux égal à l'approvisionnement. De plus, voyez que le liens en interne, fuient également dans leur contenant.
    Tout le monde connait ici le Sculpting, mais je pense qu'il faut y ajouter cette notion de fuite (qui devrait plutôt être appelée rémanence), notion qui est difficilement mesurable sans un ensemble de sites construit pour la mesurer.
    Cordialement,

  16. Simon

    Salut,
    Pour ma part, je pense aussi que l'antériorité d'un site (du moins une partie) est utilisée par Google.
    Mais de là à "enregistrer" les ancres de liens vieux de 15 ans et à en tenir rigueur encore aujourd'hui pour son classement j'en doute. Premièrement pour des raisons économiques.
    Mais aussi car je m'interroge sur la façon dont Google pourrait comparer un vieux lien perdu VS un lien actuel.
    A l'époque, le moteur de recherche ne possédait pas autant de points de contrôle qu'aujourd'hui pour évaluer la pertinence de la page linkant.

  17. largeron

    Cela me fait penser à des liens qui seraient radioactifs ! 🙂 ..Une mémoire matérialisée concrètement par un système de LRM semble probable (Link Relationship Management, comme le souligne Ghislin) qui établit un profilage selon l'historique (chronologie indexation, désindexation), DA/PA des parties, mutation "follow", degré d'opti. des ancres, pondération des critères selon politique de l'algo. du moment (comme le dit Alexandre), marché de la requête instant "x" ..... Merci Sylvain d'avoir soulevé ce sujet super intéressant !

  18. ramzi

    Sans être sûr, je me fais la réflexion suivante : est-ce que l'outil de suivi des liens indexés par Google sur webmastertools ne serait pas arrivé quelque temps avant le premier pingouin, soit pour celui-ci en avril 2012. Avec cette idée, que Google aurait par avance anticipé l'usage d'archivage des liens destiné ensuite a repérer les liens toxiques.
    Genre, je vous donne l'outil boussole pour la tempête qui vient, histoire que vous sachiez d'où viennent les grêlons.
    En ce sens, et encore une fois, Google aurait en un sens jouer franc jeu dès le début. Celui qui a de la mémoire, c'est à la fois celui qui peut faire preuve de gratitude et celui qui peut être rancunier.

  19. Sylvain Auteur de l’article

    @ Tous

    Tout d'abord, merci.
    Comme cela arrive assez souvent, vos commentaires sont probablement plus intéressants que mon article. Je suis assez fier de pouvoir attirer sur ce blog des personnes qui s'impliquent et partagent. Je continuerai à tenter de vous donner envie de le faire.

    Sur le sujet, vos idées et retours partent dans de nombreuses directions (c'était le but). Une d'entre elles revient plusieurs fois c'est la notion de scoring.
    Je ne sais pas si on peut la mettre en parallèle des effets constatés, ou bien se dire que c'est la raison majeure de cet effet des liens fantômes.
    Pour les tests, Rand ne donne pas tellement d'éléments sur l'ancienneté des sites sur lesquels il a ajouté puis supprimé les liens. Difficile de savoir si ceux-ci avaient déjà une bonne note aux yeux de Google.

    @ Koogar
    Pourquoi pas. Dommage que l'on ne sache pas dans le cas des tests ce qu'était le linking précédent des sites. On constate quand même qu'ils se sont positionnés durablement sur des expressions qui étaient dans l'ancre des liens créés puis supprimés.

    @ Marie-Aude
    J'aime bien ton analogie avec les typologies de clients. Ravi de t'avoir pris la tête.

    @ Tony
    J'ai tendance à penser qu'un site solide en terme de trust a en effet moins de chance d'être impacté par du NSEO. Dommage que GG ne soit pas aussi efficace avec le contenu dupliqué externe.

    @ Ramzi
    J'aime aussi ta logique quand tu dis qu'un filtre est une interrogation ponctuelle. Cela va aussi dans le sens de l'économie de ressources pour Google et ça tient la route.

    @ Vincent
    Je te rejoins sur le principe des liens désavoués étant identiques au nofollow. Même si on s'écarte un peu du test.

    @ Denis
    C'est exactement de cet effet dont on parle.

    @ Alexandre
    Dis-nous-en plus. Quels critères par exemple ?

    @ Christophe
    C'est sur, nous partons ici dans des suppositions, c'est le principe de ce débat. Tu considères donc que Google ferait grimper une page avec les liens qu'elle acquiert même rapidement, mais que la suppression des liens n'aurait un impact qu'après un certain temps ?

    @ François
    C'est vrai, même les 301 n'y font plus rien aujourd'hui. Non seulement Google stocke, mais associe aussi très bien les choses, les sites, les pages...

    @ Serge
    Une sorte de clé à cliquet. Avec un recalcul lors du passage de filtres comme l'évoque ramzi.

    @ Christophe
    Pourquoi pas. Maintenant, si une page d'accueil fait défiler 50 liens différents par jour, cela en fait des wagons sur plusieurs mois. Je me demande quand même si Google compile tout ça. Surtout que ce type de lien disparaît très rapidement. Mais bon, pourquoi pas ?

    @ Victor
    Justement, le but est peut-être de limiter les ressources et donc les coûts. Ce qui coûte, c'est de recalculer. Alors que cet effet mémoire pourrait justement être lié au fait que Google ne recalcule pas souvent, mais qu'il attribue une note ou un score assez durable en attendant de repasser faire le calcul un jour. Et s'il estime que les liens avaient un trust très fort, il peut même ne jamais recalculer ! Qu'en penses-tu ?

    @ Ghislin
    Je suis persuadé que chaque site a sa fiche (je suis même assez parano pour penser que les référenceurs connus en ont une aussi...). Et pour ta question sur l'échelle de temps, c'est aussi la mienne. D'ailleurs à ce sujet, John Mueller (je crois) disait que des pénalités "légères" pouvaient disparaître avec le temps, sans que l'on ne fasse rien, notamment si le site ne déconnait pas à nouveau.

    @ Kurg
    Une bonne théorie aussi que celle des sacs percés en effet. Elle explique l'inertie lors de perte de liens entrants en tout cas. En revanche qu'en est-il du gain de position rapide ? L'approvisionnement aurait un impact plus rapide que l'écoulement sortant ?

    @ Simon
    Comme toi, je n'en sais rien. En revanche, dès le début, Google a fonctionné avec le Pagerank, et donc les liens. C'est un des paramètres bien enfouis au fond de l'algo.

    @ Maurice (Largeron)
    Cela va avec cette idée de fiche, de carte d'identité, et facilite la théorie du scoring de Marie-Aude.

    @ Ramzi (2)
    Pas certain d'avoir compris. La possibilité de voir ses liens entrants dans GWT est plus vieille que le premier Pingouin. Sinon, pour le côté "franc-jeu" de Google, bof bof 🙂

    Et pour continuer, toutes les autres idées sont les bienvenues.

  20. Carine

    Bonjour à tous et tout d’abord, merci à Sylvain pour ce débat passionnant.

    J’ai personnellement une autre hypothèse concernant ce sujet. Et si l’effet mémoire n’était pas tant dû à la présence – ou plutôt l’absence, d’ailleurs – du lien fantôme mais plutôt à la trace qu’il laisse derrière lui ? Je m’explique. Ce lien a généré – ou non – des clics, des rebonds, des temps de visites, bref un tas de signaux dont Google a la trace, au moins aussi longtemps qu’ils sont repris dans l’historique de GA. Avec ces traces, Google peut déduire deux choses :

    1. le nombre de clics est fonction de la qualité du site hébergeant (personne ne clique sur un lien inséré dans une ferme de contenu ou sur un annuaire pourri) et de la pertinence du lien dans son contenu

    2. le temps de visite, voire le nombre de pages vues sur le site vers lequel le lien pointe, et qui sont issus de ce lien, sont liés à la qualité du site pointé et à sa pertinence par rapport au contenu d’origine.

    Il est évident que Google a d’autres critères pour évaluer ces deux points, mais l’algorithme multiplie forcément les signaux et juge des convergences, même très certainement au-delà de ce qu’on peut imaginer.

    Aussi, ce serait la persistance de ses signaux statistiques qui serait à l’origine de l’effet mémoire, plus que le lien disparu. Cela aurait en outre un avantage pour Google : tenir compte d’un effet mémoire pour les bons liens, tout en éliminant facilement l’effet des mauvais liens histoire qu’un site ne traîne pas ses vieilles casseroles ad vitam eternam. Puisqu’un lien pourri ne traîne pas de signaux (pas de clic, pas de visite, etc.), il disparaît point-barre. Jus à zéro.

    Il est dommage, à cet égard, que Rand Fishkin ne fournisse aucune infos sur les liens insérés et leur impact en termes de « surf humains ». Mais si 22 liens ont fait monter un site de la 31e à la 1re place, on peut imaginer qu'ils n'étaient pas de type toxique. 😉

  21. Sylvain Auteur de l’article

    @ Carine

    J'aime bien ta théorie. Elle renforcerait la notion de qualité du lien.
    Je ne te fait pas une longue réponse, mais c'est parce que je ne vois pas trop quoi ajouter à ce que tu décris (et que j'ai lu 2 fois).

    Ah si ! Tu te souviens du lien que la CNIL a eu sur la homepage de Google ? Tu imagines l'effet mémoire, même pour une seule journée de présence du lien !

  22. Bruno TRITSCH

    Bonjour Sylvain,

    Tout comme toi, j'aime assez bien la théorie développée par Carine, le seul hic, c'est que Google prétend ne pas être capable de répertorier quels liens sont cliqués ou non (voir la réponse de Vincent Courson faite à Oliviez DUFFEZ lors du hangout du jeudi 10 juillet dernier).
    Tout comme vous Carine, je pense que Google est parfaitement capable de classer d'une manière ou d'une autre les liens en fonction de l'engagement qu'ils produisent, mais détient-on la vérité?

    Cordialement,

    Bruno

  23. Carine

    @Sylvain
    « Elle renforcerait la notion de qualité du lien. » -> Exactement ! C'est aussi pour cela que je pense que ça tient la route.

    @Bruno
    Je me souviens de cette réponse de Google concernant les clics. Alors, je peux bien sûr me tromper mais personnellement, ça m'a fait éclater de rire car j'y ai vu un mensonge gros comme une maison. Cette réponse ne me paraît pas tenir 2 secondes à l'analyse. Pourquoi ?

    Je vais dans GA, j'affiche mes sites référents. En cliquant sur l'un des sites répertoriés, j'ai la liste des pages de ce site qui font référence au mien. Je peux même afficher cette page. Si je l'ai dans mes référents, c'est bien parce que le lien a été cliqué, non ? Et la donnée m'est fournie par qui ? Google. CQFD.

  24. Alexandre SANTONI

    @Carine : Beau commentaire et point de vue passionnant. Ca reprends la logique générale de ce que je pense sur cet "effet mémoire" que j’exprime plus haut, qui est (aussi ?) le fait d'autres paramètres directs et indirects. Les pistes sont nombreuses, la tienne est hypothèse probante. Cela dit, j'ai tendance à croire Google quand il affirme ne pas savoir / tenir compte de ces comportements onsite vers onsite. Maintenant, on n'en sait rien... donc, pourquoi pas.

  25. Sylvain Auteur de l’article

    Je pense aussi que le discours de GG est completement langue de bois. Suis ok avec Carine, on a les données nous même avec un outil Google et lui ne les utiliserait pas ?
    Tiens d'ailleurs à ce sujet, j'étais aussi parti dans des élucubrations sur le sujet http://blog.axe-net.fr/google-analyse-comportement-internaute/

    Les mecs mettent en place le filtre Page layout et ils ne traqueraient pas les clics ?!

    Pour revenir sur le discours, souvenez vous de celui sur le nofollow quand c'est sorti. Il a fallu que des tas de tests soient publiés par des SEO pour qu'ils avouent que le robot crawlait quand même.
    C'est ce que je déteste le plus chez Google, cette sensation de ne jamais pouvoir leur faire confiance.
    Et d'ailleurs à ce sujet http://blog.axe-net.fr/pourquoi-je-n-ecoute-plus-matt-cutts/

  26. Marc

    L'horodatage permet d'inscrire un résultat relatif à un environnement donné (cf définition de L'hystérésis donnée par Denis plus haut). Quant aux sceptiques qui s'interrogent sur les ressources nécessaires, il suffit que Google fasse comme nous tous et consulte les archives de waybackmachine, pas besoin qu'il indexe lui-même puisque d'autres le font ! Quant à l'effet mémoire des liens, il y eu Vincent pour son expérience, mais aussi le Promoteur Internet qui en a parlé deux fois avec des captures d'écran à l'appui (fake nseo par suppression de liens + diverses réflexions autour de l'effet yo-yo de l'algo suite au retrait de liens). Perso je pense que l'effet mémoire des liens est très réél : si c'était pertinent à un moment donné, le "souvenir" de ce lien persiste à donner un bon signal.

  27. Vince

    Je le constate depuis 10 ans (sur une 30 taine de site que j'ai géré) une fois que GG a attribué son score à un site, on peut supprimer les BL, ne pas mettre à jour son contenu pendant des lustres, les bons positionnements ne bougent pas, ils sont gravés dans le marbre des résultats.
    Seuls les sites concurrents peuvent faire évoluer le positionnement de mes sites.

  28. Kurg

    @Sylvain C'est en effet mon point de vue, dans la mesure ou il n'est pas décelé comme sortant du contexte : (sujet qui n'est rien à voir, afflux massif de lien depuis des pages connus pour être spammy, etc... ).
    @karine c'est un point de vue en amont du scoring que je partage totalement.

    Pour tout dire, j'ai tendance à croire (si je garde mon exemple de sac) que chaque sac grossit en fonction de ce qui l'abreuve. Seulement, trop de liens le ferait déborder, s'il n'a pas la contenance suffisante. Disons là que la sonnette d'alarme retentit peut être à ce moment, ou que certains lien ne donne pas tout leur potentiel dans ce cas.

    Posons une mesure el : Energy Link 🙂 dépendante du scoring . A = 20el B=10el et C=50el
    A, B et C pointent vers le sac D.
    D est une page toute fraiche sur un site plutôt jeune ne pouvant recevoir que 15el. Et bien je pense qu'avec ces trois liens elle n'aura que 15el au maximum, ou qu'elle fera sonner l'alarme.

    Cela soulève un point important: si au bout d'un an ces liens sont toujours présents, peut être que cette page D pourra contenir 20el et ainsi, sans changer le linking des pages, gagner quelques positions.

    On peut aussi introduire une nouvelle donnée en prenant en compte du mauvais jus, faisant chuter le QS de la page

  29. Loiseau2nuit

    Je pourrais sans doute t'en dire un peu plus dans pas longtemps, du genre "est-ce que des vieux liens rémanents transmettent du jus par 301" oui oui j'ai le test en cours ^^

  30. Dago

    Est-ce qu'une ancre de lien modifiée fait perdre de l'impact à ce lien
    J’aimerai également avoir une réponse à cette question. C’est encore difficile à prouver.

  31. Sylvain Auteur de l’article

    @ Dago
    Pas de preuve, mais une forte suspicion si tu lis le tweet de l'ancien Googler (lien dans l'article)

Partagez sur :

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *