Tromper Google grâce aux réseaux sociaux ( Test SEO)

Les reseaux sociaux pour cautionner le contenu dupliqué

Google peut-il être berné par les réseaux sociaux lorsqu'il s'agit de connaître l'auteur d'un contenu ?

On sait depuis longtemps que la date d'indexation a peu d'importance si la duplication d'une page est réalisée quelques jours après la parution de l'originale. Google prend plutôt en compte l'autorité du site. Nous voulions aller plus loin dans le test en voyant comment les réseaux sociaux sont pris en compte.

Protocole de test

Je voulais tout d'abord préciser que c'est l'un de mes restaurateurs référenceurs préférés (jambonbuzz – Vincent pour les intimes) qui m'a proposé la réalisation de ce test.

Vincent a publié un texte unique le 14 mars dernier sur son blog jambonbuzz.com (un domaine de 2009 - PR4 sur la home -  Mozrank authority 52 sur la home – liens en provenance de 117 domaines selon Ranks – bref, un blog déjà bien installé). Il a expressément demandé à ce que son article ne soit surtout pas partagé (la guilde des aveugles qui ne savent pas lire lui a quand même octroyé 18 Tweets)

Le 17 mars, je publiais sur baume-referencement.com une copie exacte de son article. Le domaine est de juillet 2010 – PR3 sur la home -   Mozrank authority 47 sur la home - liens en provenance de 121  domaines selon Ranks, globalement un peu moins bien que jambonbuzz.com

Le title des deux pages est  « l'amour est dans le blog », le contenu est rigoureusement identique.

Positionnement de l'article original.

Lors de sa publication initiale le 14 mars chez Vincent, l'article s'est rapidement positionné en 2ème position sur google.fr. L'ami Google a eu tout le loisir de faire repasser ses petits robots chatouilleurs durant plusieurs jours. Il a pu comparer et voir qu'aucun contenu équivalent n'existait sur le web (Vincent à de  l'imagination).

Arrivée de l'article « voleur »

Le 17 mars, je publiais la copie conforme de l'article sur le site Baume Referencement. Je demandais alors explicitement de tweeter, plusser, liker l'article pour faire du bingz sur les RS (un grand merci au passage pour tous ceux qui ont joué le jeu, c'est vraiment sympa de pouvoir compter sur vous).

Contrairement à l'habitude, au soir du 17 mars, l'article n'était toujours pas présent sur Google. Je précise que c'était la première fois qu'un contenu du Baume ne rankait pas sur son titre en quelques minutes.

Le signal des reseaux sociaux.

Le 18 mars, j'en remettais une couche en demandant à nouveau via Twitter de bien vouloir partager mon article scélérat.  Il bénéficia alors d'environ 20 like, 50 G+1 et 140 tweets.

Cette même journée, l'article original de Vincent disparaissait de la SERP purement et simplement alors que celui du Baume s'octroyait la première position !

Ajout d'un lien

Le 20 mars, j'ajoutais sur l'article du Baume un lien dofollow vers la source (l'article de Vincent), pour voir si cela renverserait la vapeur. Point fait au 6 avril, toujours aucun changement, le Baume est scotché 1er et jambonbuzz toujours complètement dans les choux.

Quelles conclusions / questions en tirer ?

Avant toute chose : ceci n'est qu'un test, à prendre avec du recul comme tous les tests

  • Cela confirme que Google n'utilise pas sa date d'indexation pour mesurer si un contenu est original ou pas (en tout cas, pas si les deux publications sont faites dans un laps de temps assez court).
  • C'est éthiquement odieux, mais on se rend compte que l'on peut allègrement piquer le contenu d'un autre site et faire plonger l'original si l'on bénéficie d'un « bruit social » supérieur (je ne sais pas exactement dans quelles proportions).
  • Vous vous souvenez probablement de mon petit test sur "serrurier paris" (allez hop, un bl, on verra si ça bouge) lors duquel je constatais que les réseaux sociaux seuls ne servent pas à grand-chose sur une requête concurrentielle. Mais dans le cas présent (concurrence très faible), leur impact semble énorme !
  • Ce test a été réalisé en bénéficiant des partages de vrais comptes (Twitter, FB, G+), ceux-ci bénéficiant sans doute d'une certaine autorité aux yeux de Google. On peut se demander ce qu'il en serait avec des fakes. a) des fakes bien conçus et organisés bénéficiant même de quelques vrais followers. b) des fakes genre « j'achète 1000 tweets pour x dollars.  A noter, Vincent a "laché" une cinquantaine de Tweets supplémentaires fin mars sans que cela ne change rien.
  • On se rend compte que même avec un site qui bénéficie d'une certaine autorité pour Google (le cas de jambonbuzz qui ranke très bien habituellement)  la gestion du contenu dupliqué en externe reste un véritable problème.

Important

Les deux pages concernées n'ont pas bénéficié de backlinks. Mais cela a t'il de l'importance ?  Imaginons qu'elles reçoivent toutes deux des BL en quantité et de qualité similaire, cela modifierait-il la donne ?

Vincent publiera prochainement les commentaires laissés sur sa page, nous verrons aussi si cela a un impact en minimisant le volume de contenu dupliqué grâce à l'apport de contenu frais.

En résumé

Déclasser une page (et pourquoi pas plusieurs) d'un autre site en la dupliquant paraît d'une simplicité ahurissante si on peut bénéficier de partages sociaux en quantité suffisante.

Je connais des black hat qui ne vont pas rester les bras croisés si ce test se confirme au fil du temps. À titre personnel, c'est la technique de negative SEO la plus efficace que j'aurais pu vérifier.

Vincent fera évoluer le test en agissant sur son site pour voir de quelle manière on peut éventuellement renverser la vapeur.

Edit 9 avril : suite de l'analyse de départ chez Vincent : test duplicate content

Suite :

8 avril : jour de publication de cet article, Google remet jambonbuzz en 1ère position et fait disparaitre le baume.
10 avril : suppression du lien vers l'article de Vincent à partir de l'article du Baume.
Avril : Vincent lance des tweets automatiques, son article bénéficie de 100 tweets environ.
9 mai : c'est à nouveau l'article de Vincent qui disparait, le baume reprend la 1ère position.

(je recevrai un mail quand un article est publié (no spam)

100 thoughts on “Tromper Google grâce aux réseaux sociaux ( Test SEO)

  1. Sébastien

    Oh la vache! Alors là, pour le coup, je n'aurais jamais pensé que le résultat puisse être celui-ci. C'est vraiment inquiétant pour ceux dont la stratégie marketing n'est pas liée au réseaux sociaux. 20 like, 50 G+1 et 140 tweets, ce n'est pas tant que là, loin de là. Donc cette méthode pourrait vraiment être répliquée à grande échelle. Pour une fois, je me dis "j'espère que Google va voir cela et rapidement changer son algo" (c'est presque amusant de se dire cela ^^).

  2. Boostervente

    Bonjour,

    Vu les dégâts que peut produire cette méthode, on peut même se demander s'il est judicieux de diffuser les résultats, car comme le dit Sylvain, les 'black hat qui ne vont pas rester les bras croisés'. Il faudra tout de même que ces mêmes balck hat aient une présence sociale aussi forte que celle de Sylvain et que les suiveurs lui fassent confiance.

    Cela reste inquiétant pour tous ceux qui essaient de faire du contenu unique et intéressant.

    On peut tout de même penser que Google reverra son algorithme quand ils s'apercevront de l'effet de bord.

    Patrice

  3. Mat

    2 commentaires : vos pages étaient d'autorité relativement identique. un article du monde.fr ou de tf1.fr aurait surement été plus hard à dezzingué.
    Quel réseau a été le plus déterminant ? Twitter, FB,G+ ?
    En tout cas merci pour le test!

  4. David

    Merci Sylvain pour ce test, cela me confirme des cas similaires que j'ai déjà observés depuis quelques mois.

    Par exemple, je publie un article d'une longueur assez conséquente, avec différentes images, etc. Cet article est très légèrement visible sur les réseaux sociaux (moins que celui de JambonBuzz). Un ou deux jours après, un autre blogueur dont le site a un peu plus d'ancienneté mais moins de liens publie un billet avec le même titre, la citation d'environ un tiers du contenu avec un lien DoFollow vers mon article en bas du texte recopié pour lire la suite sur mon site. Ce billet reprenait également la première image avec l'URL de mon site. Et bien j'ai disparu des SERPs sur cette page et c'est ce blog qui ressort en tête...

  5. senecte

    En 2012, Google a encore une telle faille !
    Pourtant, il avait visité baume sans cet article alors que l'original était en ligne.
    Peut-il opter pour la solution que les deux sites appartiennent au même propriétaire ? Car quelques liens croisés existent ? (oui, question, aviez-vous des liens l'un vers l'autre avant cet essai ?)

  6. olivier

    Merci pour ce test, çà montre bien que la prise en compte des réseaux sociaux par google n'est pas la panacée que certains annoncent, car au final çà sera un levier de plus pour le negative SEO.
    Je trouve quand même aberrant que google, pour déterminer quel est le contenu dupliqué et quel est l'original, ne prenne pas comme seul critère la date d'indexation, c'est pourtant le seul critère qui n'est pas manipulable et qui ne peut tromper personne. En même temps, c'est vrai que le laps de temps entre les deux publications était très court, donc peut-être pas jugé comme significatif par google. Ca serait intéressant de refaire le même test mais avec un laps de temps d'un à deux mois entre les deux publications, pour voir si cela change la donne.

  7. lereferenceur

    Ce test est super interessant. Le vol de contenu a l'air super facile.

    Donc la suite du test est que Vincent essaye de renverser la vapeur ??

    Sans les reseau sociaux, tu es sur que ton article ne serait pas apparu dans les SERP ?

  8. Maximilien

    Ce test est vraiment très intéressant et devrait encourager plus d'un référenceur à se focaliser d'autant plus sur le SMO ! Je sens que le référencement par les réseaux sociaux a un bel avenir devant lui 🙂

  9. Pascal

    Pour modérer un peu la conclusion : il semble que baume-referencement.com commetait pour la première fois un plagiat total. Un site qui copierait plusieurs article serait "sûrement" rapidement détecté. Non ? Cette technique ne marche peut-être qu'une fois !

  10. Marie

    Étonnant, ce test ! L'article sur Jambon-Buzz a-t-il disparu complètement des SERP ? C'est-à-dire qu'il n'est plus indexé par Google ? Il n'y a aucune morale dans cette histoire ! Comment protéger son contenu ?
    Dans la suite du test, avant de publier les commentaires qui vont différencier les 2 pages, il serait intéressant de faire bénéficier la page originale du même traitement que la page "copieuse", à savoir le buzz via les réseaux sociaux, pour voir ce qu'il se passe, et si la page disparue réapparaît...

  11. wilfried

    Il serait intéressant d'avoir une flopée de tweets ou de G+1 vers l'article de Vincent pour voir si cela contrebalance ce phénomène. Sans faire rentrer de nouveaux BL. Juste pour voir si par les réseaux sociaux, c'est suffisant.
    On pourrait même tester quel réseau social a plus d'influence pour remonter la notoriété d'un site.
    Ce test mérite vraiment d’être approfondi et décliné.

    Merci pour le partage Axenet et Vincent
    et surtout Bon dimanche de Pâques 🙂
    Amitiés
    Wilfried

  12. sam

    Très intéressant Sylvain ...merci
    Ce que je ne comprend pas c'est pourquoi justement Google n'utilise pas cette fameuse date d'indexation dans son algorithme ...Volontaire sans doute ? les raisons ? C'est questionnant...
    Bon dimanche ...

  13. phil

    Ah quand même !

    Notre indexateur/horodateur préféré préfère la popularité à la justice...

    Plus que le vol de contenu, je retiens l'importance pris par les réseaux sociaux aux yeux de GG.

  14. rg

    partagez cet article à matt, qu'il nous donne un peu son point de vue sur une telle conclusion par la pratique 🙂 je serai curieux de connaitre sa "théorie"

  15. maitriser son ejaculation

    Effectivement, c'est le premier qui publie qui est proprio de l' article sinon les "bien placés" pomperont les articles des nouveaux site.
    Google part en c....

  16. Djam

    Il serait intéressant de voir si on arrive au même résultat lorsque la page d'origine bénéficie déjà de quelques backlinks lorsque la copie est mise en ligne. Est-ce que cela pourrait donner suffisamment d'autorité à la page d'origine pour ne pas être remplacée si facilement par la copie ?

  17. Aurelien

    Il faudrait refaire ce test, le baume est bien vu par Google, le résultat ne serait peut être pas le même avec des domaines neufs. Quoi qu'il en soit, certains réseaux sociaux ont parfois un poids non négligeable.

  18. vince

    Intéressant mais je dois t'avouer que je suis un peu resté sur faim, au sens où le test n'est pas très vieux : les publications sont encore récentes. J'aimerais voir ec que cela donne sur quelques mois !!

  19. Johanna

    Comme quoi référencement "search et socia"l sont intimement liés, c'est une tendance lourde des années à venir pour optimiser sa stratégie de visibilité !

    Affiner le test pour connaitre les réseaux sociaux qui apportent le plus de poids serait instructif, les variables sont cependant infinies : utiliser des comptes G+ trustés ou non, des bots Twitter ou des comptes avec des ratios followers/following différents, des pages avec de nombreux fans ou des profils Facebook....

  20. Gurvann

    Un test qui fait peur en tout cas... À voir sur le long terme, mais on sent que Google peut se faire berner de nombreuses façons. Outre le duplicat content, on voit que les réseaux sociaux prennent une part de plus en plus importante dans le référencement.
    Le test n'est pas fini, il faudrait également voir les résultats sur le long terme et voir ce que les modifications de Vincent vont apporter dans le positionnement. À suivre donc...
    Bravo à Vincent et Sylvain pour ces tests qui font avancer les choses, chaque jour on apprend de nouvelles choses grâce à vous !

  21. Emmanuelle

    Depuis le temps que je me demandais ce que vous fabriquiez...!
    Interessant tout ça, en tout cas.

    Comme Marie, j'aimerais bien voir si faire un peu de buzz autour de l'article du Jambon changerait quelque chose aux resultats ?

    Et bonne orgie de chocolat à tous !

  22. LaSeuleMarvina

    génial le test ! Effectivement les BL d'origine à mon avis feraient certainement la différence. Et comme Gwa j'aimerais bien voir ce que cela donnerai d'un blog tout neuf.
    C'est quand même toujours bluffant de voir comment GG est facilement mis à rude épreuve au delà de tout ses dires !

  23. Pascal

    Je reste stupéfait du la facilité de plomber un site qui ce donne du mal pour produire du contenu "non dupliqué" et surtout de l'aveuglement de GG qui donne des règles à respecter mais met à mal tous nos efforts.

    J'espère qu'un algo sera vite mis en place pour contrer ce type de comportements.
    Les réseaux sociaux peuvent rapporter gros mais de tuer l'initiateur d'une nouvelle par descente aux enfers dans les tripes de Google... je suis révolté.
    Cela est un test mais quand même, cela révèle une belle faiblesse du système en place non ?

  24. jean-pierre

    Le plus drôle, c'est quand tu arrives à la fin des résultats (pour l'expression exacte entre guillemets), et tu cliques "Si vous le souhaitez, vous pouvez relancer la recherche en incluant les pages ignorées." - boom, l'article de jambonbuzz apparaît direct en première page...mais en deuxième position. Comme quoi, quoi qu'on fasse, personne ne peut battre le baume 🙂

  25. Pascal

    Je vous confirme que j'ai été vistime une fois de ce genre de plagiat initié par un splog d'un concurrent.

    Non seulement il a ranké sur le title et les KW mais je disposais de 6 bons BL sur l'article original.

    Le truc c'est qu"en plus d'avoir taclé mon article, il a lancé un blast et a obtenu toute une série de junk BL sur son article, et il est bien passé à ma place en me faisant disparaître. J'ai donc fait un spam report qui a abouti au bout de 9 semaines...

    2 mois pour que GG se rende compte d'un plagiat c'est fort quand même, à l'heure de Panda 3ème version.

    GG est un colosse au pied d'argile, ca se vérifie de plus en plus.

  26. Hervé

    Très surprenant de voir Google se faire blouser aussi facilement.

    As-tu pu voir quel réseau avait le plus de puissance ? Je ne serais pas surpris de voir Google+ faciliter ce résultat.

    Tout comme Vince, j'aimerais voir les résultats dans quelques semaines.

    @Gwaradenn : Veille SEO a pris un PR5 peu de temps après son lancement. Son ouverture avait été largement relayée sur les réseaux sociaux et peu de BL avaient été fait à ce moment. Donc, je ne serais pas surpris qu'un site neuf bénéficie d'un tel résultat.

  27. Matt

    Mais quand tu dis que le premier article a disparu des SERP, il a vraiment disparu, ou il est parti vers une page très éloignée de la n°1 ?
    Très intéressant en tout cas !

  28. Mancko

    Une grosse méchante faille que voilà, et qui plus est aussi expérimentée ailleurs (cf David).
    A part faire un spam report et croiser les doigts, les créateurs de contenu n'ont pas vraiment d'alternative, sans compter qu'il faut d'abord s'en rendre compte.
    J'espère que l'expérience menée va être diffusée le plus possible pour faire bouger Big G.

  29. Agence de référencement Sabattini

    C'est un test intéressant mais je pense que vous en avez parler trop vite !

    Pour valider tout cela il faudrait savoir si c'est durable, sinon cela n'a pas beaucoup d' intérêt, j'ai peur que le fait de publier des résultats trop rapide permette à la page de Jambon Buzz de revenir en tête......

  30. Test casque audio

    Outch, ça fait un peu peur ce test, grosse lacune de GG sur ce point !
    En tout cas, encore une preuve que les réseaux sociaux ont un impact bien réel dans les SERP !

  31. Tony

    C'est assez honteux de la part de Google de mettre tant d'importance aux réseaux sociaux lorsqu'on voit un test comme ça. J'espère que cette faille ne sera pas trop exploitée sinon on a du soucis à se faire car les résultats sont assez efficace pour cette technique. Je me demande comment ça sera exploité lors d'un prochain concours de SEO.

  32. Olivier

    Et imagine si le contenu est repris par des sites d'autorité nettement supérieure, il ne doit plus y avoir grand chose à faire :-/

    Je comprend pas pourquoi Google ne prend pas en compte la date de première publication d'un contenu unique, ça semble tellement évident.

  33. PH

    Bonne idée d'avoir fait ce test avec Twitter. Par contre cela ne change pas le fond du problème qu'avait évoqué 512banque en terme de negative seo : que ce soit via les tweet ou via un copy/paste sur un site ayant plus d'autorité, Google ne prend toujours pas en compte le 1er crawl pour déterminer si un contenu est original. Donc en somme il n'a jamais été aussi facile de faire du negative seo ....

  34. Zistoloen

    Bonjour,

    Merci pour ce test intéressant. En tout cas, c'est fou de se rendre compte que Google ne se focalise pas sur la date d'indexation pour voir la source originale.

    Cependant, un test intéressant serait de mettre tout de suite le lien de baume référencement vers JambonBuzz pour voir si cela change quelque chose. Si ce n'était pas le cas, il reste vraiment encore des choses à faire chez Google.

  35. Communiqués de presse

    Merci pour cet article.

    Moi ce que j'aimerais bien savoir c'est : est-ce que les deux sites étaient liés par des liens vers l'autre ?

    A mon avis si c'est oui, ça a pu jouer beaucoup.

  36. Guillaume

    C'est quand même hallucinant de savoir que n'importe qui peut se faire voler son contenu en (pratiquement) toute impunité. Qu'est ce qui se passerait si il fait jouer les réseaux sociaux à son tour. L'article arriverai à ranker en 1er place devant la baume ?

  37. Vincent

    Je me joins a Sylvain pour les remerciements. Comme dit dans le test, il faut prendre enormenent de recul avec ce test. Je donnerai mon point de vue prochainement par chez moi. Le but n est pas de renverser la tendance, juste de voir ce qu'il se passe avec un peu de changement.

  38. Loïc

    On ne peut pas vraiment dire que Panda n'a pas geré le Duplicate Content, puisque l'article de Jambonbuzz a bien été ejecté des SERPS 😀

    A mon avis le délai très court entre les deux publication est la principale raison de ce résultat. Un article publié le lundi sur un site visité une fois par semaine pourrait très bien être indexé apres qu'il soit repris sur autre blog qui, lui, est revisité tous les jours. Il serait interessant de refaire un test similaire pour deux articles qui ont un mois d'écart.

  39. Dan

    Ok pour le test et les résultats. On reste quand même dans de l'artificiel avec de l'appel au buzz sur les réseaux sociaux. A voir comme tjs dans le temps une fois l'effet de buzz passé comment les 2 pages vont se repositionner.

  40. Edouard

    Intéressant comme test ! On connait aujourd'hui l'importance des réseaux sociaux, mais à ce point ça m'étonne vraiment. En tout cas, ça montre bien qu'aujourd'hui on ne peut plus ignorer les réseaux sociaux dans une stratégie de référencement.

  41. Christophe Maggi

    Hello,

    Voici ma petite analyse de ce test ...

    Constatations :

    Premièrement, Google a mieux référencé l'article le plus récent lorsque celui-ci est apparu.
    Deuxièmenent, Google n'en a rien à battre du Duplicate Content.
    Troisièmement, les réseaux sociaux ont un effet volatile.

    Je dirais que le test est effectué sur un délai trop court, il faut attendre plusieurs mois pour voir ce qu'il va se passer réellement, vu que cest le but d'un référenceur, de positionner des sites sur le long terme.
    Le bruit social généré étant absolument anormal, il est donc normal que Google s'affole (Effet News)... Ce bruit social généré est en quelque sorte une méga information nouvelle... Par ailleurs le bruit social n'est pas seul vu qu'il est accompagné d'une page web (sur Baume) qui confirme l'importance de l'information. Le test de base est le duplicate content de deux pages webs. Les résultasts seront toujours faussés dans le sens de celui qui a amené le plus de tweets, vu que Google privilégie cet apport et qui lui permet donc de signaler en temps réel quelle est l'inforlation qui buzze le plus à un moment donnée.
    A l'heure ou j'écris ces lignes, jambonbuzz est en position 1 sur Google Fr avec la requete du titre mais je ne vois pas Baume sur la première page... Par ailleurs Bing ne référence aucun des deux sites dans ses premières pages !
    Je crois que le constat est clair (pour le moment, à vérfier sur le long terme) : Google a boosté subitement Baume lors de la détection d'un bruit social conséquent mais comme ce bruit n'a pas été suivi dans le temps par d'autres, il est retombé (certainement assimilé à du spam)... et la page initiale a donc repris son statut de première information pertinente.
    Je pense qu'il aurait fallu faire le test sur une plus longue période, avec des bruits sociaux tous les jours pendant la période de test et surtout ne pas publier de page sur le site de Baume. On aurait alors vraiment vu l'importance des réseaux sociaux face aux pages webs.
    En conclusion, on est en plein effet Panda ...

    Pour terminer mon commentaire, je ne vois, contrairement à beaucoup de commentateurs sur ce site aucune faille de Google...

  42. les marionnettes

    Le partage sur google + a ton avis a-t-il plus de poids que sur Twitter Ou FB ?

  43. Olivier

    Le filtre du duplicate content est quand même un gros fail de google. Même si dans ce test il n'y a pas de BL, on sait tout de même qu'en règle générale les gros sites sont privilégiés par rapport au petits.

    Je ne suis pas sur qu'un blog récent au contenu unique reste bien placé dans les serp s'il se fait pomper son contenu en intégralité sur wikipedia par exemple.

    En tout cas ce test en ne passant que par les réseaux sociaux est intéressant et montre bien que google est malheureusement loin d'être parfait. Le fait de pouvoir privilégier le contenu unique dans les SERP n'est pas une mauvaise chose, à condition de pouvoir le faire correctement

  44. Sylvain Richard - AxeNet Auteur de l’article

    @ Tous

    Je rappelle juste que ce test EST EN COURS.
    Voila 20 jours que nous l'avons commencé, mais l'idée était de vous en faire part maintenant pour que vous puissiez comme nous suivre son évolution.

    Si depuis le 18 mars le Baume avait éjecté l'article de Vincent de la SERP, on voit justement (est-ce un hasard ?) que son article a repris la première position aujourd'hui.

    Je pense donc :
    1 - qu'il ne faut pas tirer de conclusion trop hative.
    2 - que le test montre tout de même certaines manipulations possibles.

    En revanche, Vincent et moi nous sommes mis d'accord, ce qui ne serait forcément pas le cas pour un webmaster qui se serait réellement fait piquer un article.

    @ Christophe Maggi
    Je n'ai pas compris.
    Comment voulais tu que l'on teste l'effet d'une duplication de l'article de Vincent sans le publier ailleurs ?

  45. G_Jerome

    Merci pour ce test même s'il me rappelle de mauvais souvenirs.
    Je m'étais fait pomper une grosse partie du contenu d'un site deux après sa mise en ligne. Autant dire que la date d'indexation n'avait absolument eu aucun impact comme dans votre test. Le copieur avait fait grimper le contenu dupliqué à coup de bl et c'était confortablement installé.
    La différence est que le social est peut être un booster mais je suis tout de même curieux de voir dans les semaines à venir si l'effet booster stoppe pour laisser place à l'article le plus ancien, j'ai du mal à le croire.

  46. Chris

    @Sylvain
    En le publiant sur Facebook ou G+ puis en le tweetant sans avoir de page web sur un site existant. Mais c'est juste une idée... Je pense aussi qu'il serai judicieux de générer un même nombre d'évènements qui vont générer du bruit social, identiquement sur les deux sites. Dans ce cas de figure on aurait :
    Un site avec un contenu dupliqué sur des réseaux sociaux et des bruits sociaux identiques qui boostent (ou pas) les 2 sites. On verrait dans ce cas la réaction de google. Je reviens sur un autre point. Je ne suis pas bien Bing mais il aurait été intéressant de suivre le positionnement des deux sites edpuis le début sur Bing aussi (mais peut etre l'avez vous fait). Je me réjouis dans tous les cas de voir le résultat de ce test dans 2-3 mois.

  47. LaurentB

    Ce qu'il n'y a pas de nouveau concerne la faiblesse de l'ancienneté par rapport à d'autres facteurs. Par exemple, nous savons que la popularité peut tout à fait prendre le pas sur l'ancienneté, alors pourquoi pas un certain niveau d'animation sociale.
    Cela dit, j'en doute par rapport à mes propres tests, mais Google est très bizarre en ce moment. Je ne sais pas si c'était le moment opportun pour jauger ce genre de truc.

  48. AgenceSolution.com

    Mouais, en même temps je pense que je vais me créer plein de compte twitter et facebook car même si je ne souhaite pas piquer de contenu il devient de plus en plus simple de monter dans les serp grâce aux réseaux sociaux...bizarrement simple...

  49. Arnaud

    C'est vrai que ce genre d'article va motiver certains dans le negative SEO... Le résultat est intéressant et va me pousser à m'investir de plus en plus dans le réseau social. C'est vrai qu'il reste à voir le résultat avec du fake account... Ca donne des idées en tout cas intéressantes. Merci pour le test.

  50. axel

    Heureusement j'ai tout lu ça évite de dire des bêtises 😉 Intéressant test en tout cas.
    @christophe maggi: merci pour l'excellente analyse. Je garde en tête l'idée que les réseaux sociaux sont considérés comme de l'information "chaude" par GG. Si je me souviens d'ailleurs Lauren B parle de "prime de fraîcheur" à la sortie d'un article.

  51. lereferenceur

    @Sylvain : Je crois qu'il disait de prendre un site moins populaire que Baume.

  52. Cyril

    Vous êtes courageux de faire des tests sur vos propres sites.
    Le trustrank de jambonbuzz a du prendre un coup puisque google a jugé qu'ils avaient posté du contenu dupliqué...

  53. Mickael

    Ca fait peu quand même les effets du contenu dupliqué !

    Cela dit je suis certain que si le contenu original reçoit des backlinks, il remontera même sans partage social pour peut-être même dépasser le dupliqué. Enfin je pense...

    J'ai hâte de lire la suite du test.

    Pour un prochain test, il serait intéressant de voir l'impact sur le ranking d'un contenu partagé selon le réseau social et voir ainsi qui de FB, G+ ou Tweeter a le plus de poids. (perso je pense G+)

  54. Franco

    J'ai vu aussi en cours de lecture que l'article original était revenu.
    C'est sans doute un mix entre les critères : tweets, contenu frais, date d'indexation etc. qui fait qu'à certains moment l'un prends le dessus sur l'autre.
    Je n'ai jamais trop remarqué que la date d'indexation avait un effet sur le positionnement (malheureusement).

  55. xain

    Ca fait limite peur ton truc!! Quelque part ce qui me gène le plus, c'est que la date d'indexation n'est pas prise en compte dans le DC. Pourtant ça semblerait plus facile que de s'occuper des like et consorts. Et puis surtout c'est vraiment la loi du plus fort: un gros site avec une communauté importante pourrait donc piquer les articles du petit qui serait invisible par google... Bref c'est une affaire à suivre..

  56. Jean-Michel

    Moi qui laissait de côté les réseaux sociaux, je crois que je vais devoir m'y coller après lecture de ce test.

    Cela dit la logique de google est bonne. Il faudra quand même être tordu pour réussir à faire plus de twitt sur un article dupliqué à partir de comptes auteurs crédibles aux yeux de GG.

    Il y aura tjs un moment donné où une personne réagira sur twitter et dira que l'article est copié collé de telle source...(surtout si ça buzz)

  57. LuniCréa

    Comme certains le savent, j'ai effectué un twitest récemment utilisant le signal social sur une requête non concurrentielle et avec des NDD tout frais.

    Certes, cela ne concernait pas des textes similaires mais le simple fait d'enlever une pénalité grâce au signal twitter à de quoi faire réfléchir !

    D'ailleurs, la réapparition du site de Jambon Buzz en 1ère place au bout de 20 jours ne m'étonne pas du tout car voici un extrait d'un de mes commentaires datant du 24 février 2012 : "On peut donc supposer que c’est l’effet Buzz qui est retombé au bout de 20 jours."

    Bref, je pense qu'il va falloir prendre au sérieux cette histoire des 20 jours pour déterminer la fin de l'impact social ... Qu'en dis-tu Sylvain ?

  58. Lionel

    Bonjour Sylvain,

    Ce test est intéressant mais je pense qu'il faudrait d'autres exemples de ce type pour en tirer des conclusions fiables sachant, que bien souvent, ce qui fonctionne pour un cas ne fonctionnera pas pour un autre. Après, je devine que tu as autre chose à faire. Merci pour ce retour d'expérience très intéressant.

    amicalement

  59. écrivain public

    Et si l'article lui-même est dupliqué sur une page fan à forte fréquentation, qui serait liée à toutes sortes de compte "rézo" Enfin cela laisse imaginer de nouveau test pour de nouvelles techniques de nseo.

  60. Samuel

    Le problème de ce genre de test est que vous oubliez un facteur très important, à savoir le NDD sur lequel est publié l'article, son âge, ses BLs, sa conformité sémantique avec l'article etcaetera...
    Ceci dit ça montre qu'un gros boost social a un effet certain mais de là à en quelque conclusion sérieuse que ce soit....

  61. Le Juge

    Oh mais comme il est dur de tirer des conclusions de ce genre de test... et les résultats d'ailleurs laissent pensifs. Je pense comme Aurélien que la mise en place d'un 2e test similaire serait nécessaire - histoire d'avoir un témoin - L'idée de voir si on peut dézinguer une page Wikipédia dans les commentaires sur le blog de Vincent pourrait etre une bonne idée.

    Autre chose - mais sur le coup je ne pense pas que ca aurait eu de l'importance quoi qu'il en soit puisque le but etait d'isoler le facteur social justement - Un buzz ne vient que rarement via tweets uniquement, souvent c'est accompagné de liens et recherches du type "titre article sur le baume".

    Bref comme le dit vincent ce test souleve encore de nombreuses questions

  62. Crealx

    J'avoue être un peu scotché... En fait, encore une fois, celui qui a la plus grosse (voix) sera la premier ! Pas d'histoire de contenu, de qualité ou d'originalité. Il faut juste faire le plus de "bruit|buzz|tweet"... Maintenant, j'aimerais voir un petit peu dans le temps comment cela évoluera... Merci en tout cas pour ce test, cela ouvre quelques petites expérimentations sympathiques 🙂

  63. jeremy

    Il y a pas mal de paramètre a prendre en compte a mon sens et un chekc rapide sur le contenu prouve que le site source peut envoyer BR dans les choux également...

    Autre truc amusant sur les SEO du titre...Google ne propose aucune page similaire (pas de DC possible sur un titre ?)

    Pour moi, BR a plus de popu. que JB, les résultats me semblent donc logique pour le moment.

    Reste que je définis un duplicate par duplication de la page entière (html avec) ...Et dans ce cas, tu peux effectivement faire disparaitre des sites de la circulation...

    Bref, faut pousser et voir les suites de tout celà ^^ ...

  64. Geek

    Google est mort:
    Il ne lutte pas contre les fermes de contenu tel que Ehow / Wisegeek, malgré de vaine tentative
    Comment des sites d'informations peuvent t'il se positionner alors que le site d'un Kikoo de 15 ans avec 15'000 amis sur Facebook reçoit des j'aime ? C'est tout simplement impossible.
    Ok, je sors avec mes trolls.

  65. Sylvain Richard - AxeNet Auteur de l’article

    @ Samuel
    Bein si justement, as tu lu le début de l'article ?
    Bien évidement, on ne pouvais pas tomber sur deux domaines totalement comparables, c'est impossible.

    @ Jeremy
    Jusqu'à hier, le BR était devant en ayant fait un lien vers la source, depuis 15 jours. C'était quand même étonnant.

    @ Aurelien, le juge
    Vu que nous partions dans le brouillard (et y sommes encore 🙂 ) nous avons commencé par nos sites, mais effectivement, ce serait instructif de s'attaquer à un gros morceau en faisant appel à de nombreux SEO pour les BL et les signaux sociaux.

    @ Tous ceux qui parlent de la solution de la date d'indexation

    A mon sens, ce n'est pas un bon critère non plus. Une source originale peut très bien être indexée par Google après sa copie. Google ne peut pas savoir à quelle date est publiée une page, il peut juste savoir à quelle date/heure, lui la trouve, cela fait quand même un très grosse différence.

    Plus généralement. Je n'aurais pas vraiment de solution si j'étais Google. L'equation : Notoriété du site, notoriété de la page, signaux sociaux vers le site et vers la page, backlinks du site, backlinks de la page sont quand même globalement de bons indicateurs pour ne pas se planter.

    Il est aussi important de noter (comme l'a très justement fait remarquer Vincent), que le résultat à "comme par hasard" changé une fois cet article publié.
    Avant cela, la requête n'étais quasiment jamais tapée ni cliquée, les requêtes complémentaires non plus.

    Vu que nous n'avons pas linké nos articles respectifs, il est fort probable que certains d'entre-vous ont tapés diverses requêtes contenant au moins un bout du title de l'article pour pouvoir trouver ceux-ci, et vous avez cliqué. On sait que le taux de clic peut fortement impacter la SERP, c'est encore un paramètre complémentaire pas facile à mesurer.

    Un exemple, vous tapez "l'amour est dans le blog seo", c'est le baume qui ressort 1er. Vous tapez l'amour est dans le blog jambon", c'est Vincent qui ressort 1er. Alors que sur le title exact, Google a fait le yoyo (et ce n'est sans doute pas terminé) en faisant totalement disparaitre l'un ou l'autre des articles.

    Quoi qu'il en soit, j'en retiens quand même que les signaux sociaux peuvent aider à piquer la place d'un autre site en ayant copié son contenu. Cela peut même visiblement aider à faire "disparaitre" l'autre. Il est probable qu'il faudrait y ajouter une petite lampée de BL en complément pour assoir le truc.

    Mais bon, comme vous, je ne fais que constater, je ne sais pas non plus comment cela va évoluer, j'ai cassé ma boule de cristal 🙂

    A suivre donc...

  66. AgenceSolution.com

    "A mon sens, ce n’est pas un bon critère non plus. Une source originale peut très bien être indexée par Google après sa copie. Google ne peut pas savoir à quelle date est publiée une page, il peut juste savoir à quelle date/heure, lui la trouve, cela fait quand même un très grosse différence."

    Je me demande si en surveillant un concurrent et en piquant son contenu (+ 5/6 tweets) il ne suffirait pas de rajouter juste une date de création de l'article (j'ignore totalement si google peut ou pas prendre en compte la date) et le duplicate va automatiquement à l'auteur....incroyable!

  67. Florent

    Ça fait franchement peur ce genre de test, il suffit donc d'être plus branché "réseau" que ses concurrents pour leur passer devant.
    En tout cas ça révèle sans doute les futures tendances des moteurs de recherche, à savoir privilégier l'aspect social pour mettre en avant les sites les plus trustés.

  68. Christophe Maggi

    @ Sylvain

    Sylvain, lorsque vous dites : "Une source originale peut très bien être indexée par Google après sa copie. Google ne peut pas savoir à quelle date est publiée une page, il peut juste savoir à quelle date/heure, lui la trouve, cela fait quand même un très grosse différence.",

    je ne suis pas du tout d'accord, il suffit au robot de regarder la date de modification du fichier qui contient l'article en question... Il peut même compléter cette information en faisant la différence avec ce qu'il a en cache... Quand on sait que Google passe plusieurs fois par jour au même endroit (surtout si la page varie régulièrement), ... et qu'à cela s'ajoute parfois du Google Analytics en temps réel, croyez moi ... étant webdeveloper, je peux vous dire que Google sait absolument tout de vos pages webs, (ce qui change, quand etc .... )

  69. nicodesh

    Intéressant, mais...

    Le SEO est une manipulation de l'algorithme de Google, c'est un fait. Remettons les choses dans un contexte naturel : deux articles sont publiés de manière assez proche dans le temps. Lequel faire ranker ? Bien évidemment celui qui a profité de + de 200 signes sociaux. Publier avant ne signifie pas être l'auteur original. Ça peut très bien être une reprise AFP par exemple. Donc le résultat est cohérent et logique, l'inverse aurait été presque étonnant.

    Je reste sur ma faim à cause de deux critères :

    1) Les articles ont été publiés de manière trop proche dans le temps, ce qui donne une certaine légitimité au choix algorithmique de google.

    2) Mais SURTOUT, le BL vers la source a été fait trop tôt !!! Dans ce test on ne veut pas voir le copieur aider la victime !!! Si demain je me fais ba*ser la gueule, le gars ne va pas me faire un BL pour s'excuser ! Et si moi demain je veux m'aventurer dans le BH / NSEO je ne ferai pas non plus un lien au site source !!! Donc le but est de voir si on peut s'en sortir dans le pire des cas, sans l'aide du copieur... Je trouve ça vraiment dommage de prendre le temps de faire un test aussi intéressant pour le fausser aussi rapidement avec un BL vers la source 🙁

    Merci en tout cas, ça ouvre quelques pistes intéressantes, notamment vers de nouveaux tests.

  70. MBTP

    Le test en cours (en attendant d'en savoir plus) est très intéressant et assez surprenant sur le résultat mais prouve encore une fois l'importance :
    - des réseaux sociaux dans une stratégie de référencement
    - de la lutte contre le duplicate content pour les éditeurs

  71. Steph from Immobilier Chambéry

    Merci, ça faisait bien longtemps que je me posais ce genre de question en attendant de voir passer un test !
    Je reste assez convaincu de l'importance des réseaux sociaux sur le SEO, mais c'est vrai que ça ouvre des portes à pas mal de dérives...

  72. Sylvain Richard - AxeNet Auteur de l’article

    @ Christophe
    Je pense amha que si c'était fiable, Google l'utiliserai depuis très longtemps pour déterminer l'original d'une copie. On ne parle pas de modification, mais de création.
    L'idée est bonne, mais tellement facile à manipuler. La plupart des BH auraient des fichiers du 1er janvier 1970 🙂
    En revanche, je te rejoins quand tu dis que Google horodate tout, c'est certain.

    @ Nicodesh
    Vu que la copie avait pris la place de l'original, il restait a savoir si GG revenait en arrière en faisant le lien. Ce n'a pas été la cas avant dimanche.
    Maintenant, un test n'est qu'un test, comme tu le dis, ce qui compte, ce sont les idées qu'il peut générer.

  73. Xavier

    Merci pour ce test et le partage de vos conclusions (ici ou sur JambonBuzz) ... maintenant on se pose encore plus de question qu'avant ... vous êtes content de vous ? 🙂 Remarquez en général c'est un peu le but de ce genre d'article, de remettre en cause les certitudes et de s’interroger sur le bienfondé de celles-ci.

  74. escalier bois

    Test très intéressant, comme d'habitude !

    C'est un peu effrayant de voir qu'un site/blog bien installé puisse ainsi impunément voler le contenu d'un autre, moins (re)connu...

    Je me demande quel aurait été le résultat si l'article copié avait été mis en ligne un bon mois après l'original ! Ce dernier aurait-il pris assez de "poids" avec le temps, pour ne pas se faire éjecter ?

    Ici tout semble s'être joué dans un mouchoir de poche, les dates de mise en ligne sont tellement proches que l'hésitation de Google semble légitime...

  75. sylvain

    Quoi qu'il en soit, c'est très sympa de partager ce résultat (et ce travail) ! Une chose est certaine : Google a bien identifié le DC.

  76. je sais pas

    @Sylvain Sur quel mot clé la page qui copie arrive avant la page originale ?

    Parce que sur le titre "L'amour est dans le blog", je vois bien la page originale de Jambuzz avec comme date de prise en compte sur la SERP le 14 mars 2012.

    Et il n' y a aucune trace de l'article sur Baume qui copie... Donc, le temps a fait son effet et Google a donné à César (Jambuzz) ce qui appartient à César...

  77. Infusion Web

    Je trouves que cela remet en cause pas mal de choses.. La duplication de contenu étant normalement négative pour le SEO, on voit ici qu'en jouant avec les réseaux sociaux, cela change vraiment la donne! Hallucinant.. Quel réseau social Google préfère t'il? Si on post un article sur G+ ou Fb, lequel sera le plus bénéfique? Je me pose la question..

  78. Alice

    C'est sur que pour l'instant, au vu de cette article, c'est d'une simplicité ahurissante de ranker sur le texte d'un autre, mais comme certains au dessus, attendons encore un peu, et voyons ce que cela va donner.
    Les liens viennent des réseaux sociaux, mais cela aurait peut être été différent si c’était des backlinks plus classiques. Peut être une suite à donner à ce test?

  79. Nicolas Nguyen

    Merci pour ce test sylvain.
    Pourrais-tu ajouter une phase à ton test stp en passant la page en "noindex", afin de voir si le noindex permet tout de même de garder la page sur le NDD jambonbuzz dans les choux ?

  80. Rhum

    Merci Sylvain pour ce test.

    Bien que nécessitant d'autres tests pour en tirer de réelles conclusions, il a le mérite de jeter un pavé dans la mare. Le nombre de like google+ et tweets est loin d'être énorme, et facilement faisable avec de faux-vrais comptes.

    Oui, google n'est pas infaillible, et oui, un black hat peut piquer la place d'un site avec contenu original.
    Vu que le spam report de google ne semble pas fonctionner à merveille, on peut même supposé qu'on peut totalement "blacklister" un site nouveau, en recopiant chaque page sur une page d'un autre site.

    Petite question : tu as annoncé dans ton article sur le black seo qu'une utilisation d'un blockquote pouvait permettre de passer devant le site original. En combinant une publication dans la foulée + un blackquote, ne serait-il pas possible de passer définitivement devant?

  81. Nicolas de blog mode homme

    Ça fait peur à mon petit site de CP ça... Surtout que niveau partage sur les réseaux il est pas au top du tout ! Évidemment il y a des réserves à avoir mais l'étude met très clairement en avant un tendance flippante ! Je me demande encore comment ça ce fait que Google n'ai pas trouvé de vrais algo pour ce genre de souci... Enfin on peut considérer que le deuxième post est plus intéressant pour l'utilisateur mais puisque que Google a clairement compris que ce sont les deux même contenus c'est cruel. Enfin bête et méchant plutot.

  82. Tony

    Eh bien, il y a de quoi faire à ce que je vois. Bref, l'article et le test sont très bien, je ne reviendrais pas la dessus. Ce que je peux ajouter, c'est un cas client concret que je vais vous présenter. Je vais essayer de faire au plus simple pour qu'un max comprenne.
    Pour information, ce n’est pas un produit e-commerce mais juste un article de presse présentant une marque de vêtement.
    - Le client a une page web qui fait plusieurs milliers de visites par mois (thème « marque de vêtement »)
    - J'ai un blog, je me dis que je vais faire un test. Le cas échéant, je rédige une page similaire à celle du client, sur les mêmes mots clés, contenu approximatif mais presque le même nombre de mots.
    L'objectif est de positionner ma page juste en dessous du client, histoire de lui faire de la marge par rapport à la concurrence.
    Je rappelle que c'était un test à la base.
    Je fais plusieurs partages twitter et Facebook + une dizaine de liens en renfort.
    Conséquence : au bout de 10 jours, ma page passe devant la sienne.
    Tout confus, car l'objectif n'était pas de voler la position du client.
    Je fais un lien du mot clé en question "marque de vêtement" de ma page vers sa page, je réalise un dizaine de liens exactement aux mêmes endroits que ceux de ma page.
    En deux jours, ma page passe de la deuxième position à la 8éme, la sienne reprend sa position.
    Voilà fin de test, on sait jamais ça peut aider 😉

  83. Bernard

    Les réseaux sociaux commencent à prendre de plus en plus d'importance aux yeux de Google. Cependant il serait judicieux de combler les lacunes et failles du moteur avant de s'attaquer a des nouveaux chantiers, surtout lorsqu'ils s'avèrent être de véritables gruyères!

    C'est tout bonnement révoltant de voir qu'un auteur "original" peut voir son contenu catapulté dans les abysses des SERPS de Google car un petit malin aura su mieux booster son contenu volé!
    A l'heure de la révolte des artistes et entreprises concernant les problèmes de copyright, c'est de bonne augure...

  84. Tristan

    Bonjour,

    Les experts Miami n'ont qu'à bien se tenir, vous êtes vraiment des passionnés pour sortir des tests comme ça. 😀

    J'ai lu l'article et une partie des commentaires, beaucoup de gens pensent que les dates de publications trop rapprochées faussent le test, c'est possible, ici on essaye de trouver la faille de Google mais aussi de la résoudre (enfin j'espère).

    En effet les dates sont proches, alors pour un contenu qui parle d'un évènement d'actualités où la rapidité de l'information est importante vous pensez vraiment que les voleurs de contenu vont attendre 6 mois avant de publier le duplicata ? Non, on vit dans un monde où tout va très vite, et je suis désolé mais si le mec suit votre blog / site il a juste un Ctrl+C / Ctrl+V à faire pour qu'il soit en ligne.

    Bref, merci d'apporter ce genre de test à la communauté, j'espère vraiment que les dirigeants de google gardent un oeil dessus et cherchent des solutions aux failles dévoilées.

  85. Mathilde

    Merci pour le test.

    Ceci peut remettre en cause les droits d'auteur. Même si au final, l'article sur jambonbuzz a repris le dessus, il a quand même été oublié pendant un petit moment au profit de baume.

    Cette situation pourrait être plus problématique pour certaines personnes qui n'arriveraient pas à remonter leur site. Mais il faudrait réaliser d'autres tests avant d'en tirer des conclusions.

  86. DVD intouchables

    Excellent test, cela prouve bien l'importance des réseaux sociaux, et ça prouve encore une fois qu'il est pas difficile de se faire voler du contenu. Je trouve l'article très bien, et je suis ravi d'avoir appris cela, mais comme vous le dites à la fin, ça va donner de "mauvaises" idées à ceux qui pratique le SEO Black Hat !!!

    La difficultés sera de trouver de vrais follower, like et +1, car je pense, et surtout j'espère que GG sait reconnaitre un vrai compte, et je pense que le test effectué a été positif car les personnes qui ont partagé le contenu son ultra ciblés, partagent les même infos, et parle du même thème.
    Alors la question est combien faut-il de comptes non ciblés et de faut comptes pour avoir le même résultat qu'avec des comptes et des partages de qualité ?

    En tout cas bon test, et bonne idée 😉

  87. François

    Ce test est édifiant.

    Moi je me mets à la place des pauvres blogueurs qui vont être victimes de plagia + déclassement si cette technique s'avère efficace à tous les coups...

    Très dangereux quand même !

  88. Christophe

    Bravo à Vincent et Sylvain. Le test est édifiant, au moins jusqu'à maintenant. Attendons de voir donc dans quelques semaines...

    Cela prouve encore que le SMO a un vrai poids dans la stratégie de référencement. Pour ma part je joue la carte à fond en utilisant un maximum les réseaux sociaux et Digg like. Chacun de nos posts est publié sur 10 réseaux en quelques jours. Je n'ai malheureusement pas fait de tests précis pour savoir si les posts ont plus d'impact avec quelques jours d'intervalle.

  89. Olivier

    Un résultat très intéressant et "surprenant"

    J'ai aussi constaté que les résultats qui avaient fortement été partagés sur facebook ou tweeter ressortait mieux que les autres. Mais je ne me doutais pas que ce soit aussi "radical"

    Pour ceux que ça intéresse il y a eu un bombing en Chine réalisé par les SEO chinois Baidu, "baidu est une poubelle" "Baidu un escroc" etc

  90. sha

    Merci à vous deux d'avoir réalisé ce test, je l'ai fait suivre à tous mes collaborateurs et nous sommes tous consternés.
    Nous nous battons tous les jours pour rédiger du contenu original et nous serions dégoûtés si la date d'indexation ne jouait pas en notre faveur.

    Je pars d'un seul principe, mieux vaut s'occuper de son propre référencement que de celui des autres, à bas le negative seo !

  91. Ludovic

    Bonjour,

    Merci pour ce teste qui est vraiment très intéressant. Il y a quand même une partie que je ne comprends pas, comment est-ce que google peut savoir si le compte twitter ou Facebook est réel (dans Facebook on bloque tous les accès, le compte peut être réel, mais comment vérifier)? Et donc il serait possible de créer 50 comptes "bidons" pour pouvoir créer un bruit social totalement bidon.

    Lorsque je fais une recherche, il semble que le site "copieur" soit plus visible, cela confirmerait l'effet temporaire du "buz". Pensez-vous refaire un teste sans envoyer un lien vers la source (les plagieurs renvoient rarement vers les sites lésés)?

    C'est une situation intéressante et interpelante, qui faudra suivre de très prêt...

  92. Rodrigue

    Cela prouve donc que le mec qui fait un article extra, sur un nouveau, pourra se la faire dupliquer par un "expert reconnu" et celui ci sera donc indexé beaucoup mieux que l'original, c'est quand même énorme, mais si l'original a bien configuré son Blog, ni a t'il pas une histoire de détection d'auteur avec le snippet Google, celui ci a t'il donc de la valeur ?

    Ha oui et et concernant le « Buzz » sur les réseaux sociaux à coup de like ou autre clic and share, dans ce cas qui le mec qui a 99€ à dépenser pour promouvoir une page va pouvoir passer par un social Kik et chopper un millier de like ? ça en revanche je suis sceptique ….

  93. Francis

    Bonjour,

    Je confirme que cela fonctionne, test à l'appui à peu près identique de mon côté. Par contre j'ai du mal à saisir la fin du test :

    10 avril : suppression du lien vers l’article de Vincent à partir de l’article du Baume.
    Avril : Vincent lance des tweets automatiques, son article bénéficie de 100 tweets environ.
    9 mai : c’est à nouveau l’article de Vincent qui disparait, le baume reprend la 1ère position.

    Pourquoi avoir fait 2 actions ? Avez-vous une idée si le dernière inversion vient de la suppression du lien ou des tweet automatiques (=nseo?) ?

  94. Troll face

    Ce test est vraiment très intéressant et devrait encourager plus d’un référenceur à se focaliser d’autant plus sur le SMO ! Je sens que le référencement par les réseaux sociaux a un bel avenir devant lui

Partagez sur :

Les commentaires sont fermés.