Le negative SEO est-il possible ? Oui, je l'ai vécu.

negative SEO

Le negative SEO (SEO négatif) consiste à pénaliser des concurrents plutôt qu'à tenter de faire gagner de la visibilité à son propre site. C'est une technique dite "black hat SEO" qui impacte le référencement naturel d'un site.

Il fait parler de lui depuis longtemps. Durant 10 ans, Google nous a assuré qu'il était impossible à mettre en œuvre, puis depuis quelques années, le discours est moins franc. Pour ma part, je l'ai vu concrètement tout récemment avec la pénalisation d'un client.

Comment fonctionne le negative SEO ?

La recette est simple. Vu que Google fait tout pour pénaliser d'une manière ou d'une autre les liens artificiels (factices), la méthode consiste à inonder un concurrent de liens qui ont toutes les chances d'être mal vus aux yeux du moteur. Comme du spam de liens en masse réalisé à l'ancienne.

La victime se voit donc pénalisée (car perçue comme spammeur) par l'algorithme de Google ou par un membre de la webspam team. Le "déréférencement" commence alors, soit avec une baisse des positions quand la sanction est algorithmique (algo ou filtre Pingouin), soit du fait d'une sanction pour liens factices (voir les différences et similitudes)

Le negative SEO est-il rentable ?

La bonne question c'est exactement celle-ci. Parce que faire des liens vers un concurrent, ce n'est pas très instinctif à priori. On a déjà tellement de mal à obtenir des liens vers son propre site...
Et puis ces liens ne risquent-ils pas au contraire d'améliorer les positions du concurrent ?

Oui mais... On ne parle pas ici de liens qualitatifs, bien au contraire, on parle de liens d’extrême mauvaise qualité de préférence, et ceux-ci sont forcément moins coûteux. La seule chose qui importe, c'est que ces liens soient déposés sur des pages indexées par Google, pour qu'il puisse les prendre en compte afin d'être certain de pénaliser le concurrent.

Alors si ces liens ne coûtent pas cher du tout, eh bien oui, ça peut être rentable, même si vous faites cela en gros volumes pour vous attaquer à plusieurs concurrents d'un coup.

Est-ce que ça marche à tous les coups ?

Ça, c'est moins sur. Il est important de bien analyser ses cibles en amont. Si demain vous vous mettez à balancer des milliers de liens douteux vers une page ultra trustée, même sur une requête concurrentielle, il n'est pas certain que cela lui fasse du mal (la homepage du site de la Nasa par exemple).

L'astuce, c'est de bien analyser ses ancres de liens. Si elle se positionne sur la requête en n'ayant que très peu de liens en ancres exactes (la requête exacte), ceci veut dire qu'elle obtient son positionnement grâce à un contenu optimal et des liens placés sur de bonnes pages elles-mêmes trustées et récupère un bon jus sémantique. Dans ce cas, le negative SEO a peu de chance de fonctionner. D'une part car la webspam team verra que ce sont les seuls liens pourris, et par ailleurs parce que le site est suffisamment "fort" pour y résister au niveau de l'algo.

Après, cet afflux de liens de mauvaise qualité risque peut-être de mettre en colère Pingouin, je ne sais pas.

Mais alors, dans quel cas le negative SEO est-il efficace ?

Dans le cas de mon client !

Sa situation avant l'action de négative SEO :

  • Un site jeune qui a environ 18 mois d'existence
  • Environ 15 % de liens optimisés / nbre de domaines, sur sa requête phare, essentiellement obtenus au lancement du site.
  • Dans ces 15% quelques liens un peu faciles quand même... (annuaires)
  • Pour info, environ 130 domaines référents et 3000 BL

Avec un profil comme ça, le site n'a pas les reins assez solides pour résister à une attaque.

Qu'a fait l'attaquant ? C'est assez basique, il a envoyé la grosse cavalerie avec des milliers de backlinks sur les requêtes principales. Ceci essentiellement à partir de commentaires de blog (russes, polonais, japonais, etc.), un exemple de ce type de blog qui laisse tout passer ici http://www.tigrulki.ru/2010/02/25/reshaem-afrikanskuyu-golovolomku/.

Pour compléter : l'attaquant à fait la même chose avec un grand nombre de ses concurrents.

Le résultat ne s'est pas fait attendre, mon client s'est pris une pénalité manuelle, car son nombre de liens optimisés sur sa requête phare a explosé. Sa position (9e sur sa requête préférée) a allègrement chuté (8ème page de résultat avec une page interne). Sur sa 2e requête phare, il est passé de la 2ème position à la 8e page aussi.

Quelle est l'attitude de Google face à cela.

Un peu hypocrite à mon avis.

  • Le discours de Google aujourd'hui est de dire qu'il n'ont jamais vu un site qui ait été pénalisé à cause du négative SEO.
  • Bien évidemment, car à chaque fois on trouve au moins une petite part de liens dits « artificiels » même minime (dans le cas de mon client, j'ai fait supprimer des liens sur 27 domaines "seulement", mais désavoué un gros volume de liens spammy posés par l'attaquant sur 127 domaines)
  • Alors c'est vrai, ce n'est pas uniquement le negative SEO qui a joué, c'est l'ensemble. Un bon moyen pour Google de s'en tirer avec une pirouette (et un sourire...).
  • Curieuse coïncidence malgré tout, pour mon client chez qui la pénalité manuelle est arrivée juste après le paquet de liens vérolés... Il faudrait croire au hasard ?

Pour le site, le résultat sera toujours pénalisant à terme. En effet, vous n'êtes pas un risque-tout et avez fait très attention à ne pas jouer au fanfaron avec vos BL, vous n'en avez pas trop contenant votre expression-clé fétiche. Mais quand des milliers de BL qui la contienne déboulent, c'est la totalité qu'il faudra nettoyer pour sortir de la pénalité.

Autant dire que l'attaquant a gagné, car il y a peu de chance que vous retrouviez vos positions initiales.

Alors on fait quoi dans ce cas ?

Dans le cas de la pénalité manuelle, j’expliquais tout cela dans ma présentation du dernier SMX disponible ici.

On va bien sûr recenser tous les backlinks pourris et désavouer tous les domaines concernés. Mais on devra aussi faire le ménage dans les autres liens, car comme je vous l'ai déjà dit, le contrôleur de Google ne vous laissera passer aucune ancre optimisée.

Qu'aurait-il fallu faire de plus efficace ?

Il aurait fallu être à l’affût au quotidien pour surveiller le moindre lien qui arrivait chaque jour sur le site, puis désavouer chaque jour tous les liens vérolés. Autant dire que c'est une charge de travail non négligeable pour des actions dont vous n'êtes pas responsables.

D'ailleurs, concernant mon client, c'est ce qu'il faudra faire dans les mois à venir, car rien ne dit que l'attaquant ne recommencera pas.

Les risques supplémentaires

On parle là d'une pénalité manuelle, mais allez savoir si le site ne s'est pas pris un filtre Pingouin dans la foulée à cause de ces BL. Car Pingouin lui aussi déteste les liens optimisés posés sur les sites de mauvaise qualité.  Et vu le rythme des mises à jour de Pingouin, une entreprise a largement le temps de mourir avant un prochain update.

Vu que l'on vient de faire la demande de re-examen mercredi dernier, je pourrais vous en dire plus d'ici quelques semaines concernant mon client.

En résumé

  • Ne croyez surtout pas le discours de Google, le risque de negative SEO existe bel et bien et il est plutôt facile à mettre en œuvre en regard des sanctions appliquées aujourd'hui.
  • Surveillez vos backlinks très fréquemment pour vérifier que rien de suspect ne pointe vers votre site.
  • À la moindre alerte, jetez-vous sur la possibilité de désavouer les liens incriminés. C'est d'ailleurs la seule réponse proposée par Google à ce jour. Et bonne chance pour vous y retrouver dans Google Webmaster Tool si vous récoltez des centaines de milliers de liens...

Edit Novembre 2014 : Mon client a bien vu sa pénalité manuelle levée. Ma principale action a été de désavouer les liens de commentaires fait sur les forums et blogs russes, polonais, etc.
C'est donc clairement l'action de négative SEO qui lui a occasionné sa pénalité manuelle.

Le negative SEO est-il possible ? Oui, je l'ai vécu.
5 (100%) 6 votes

Partager sur Facebook
Partager sur Twitter Plein
Partager sur linkedin
Partager sur Google+

40 réflexions au sujet de « Le negative SEO est-il possible ? Oui, je l'ai vécu. »

  1. Denis

    Il me semble difficile de différencier l'action de vilains concurrents d'une erreur de la part du référenceur. Nous subissons tous de la part de sites russes et ukrainiens des liens de mauvaises qualités. Étrangement, nous n'en sommes pas pénalisés par Google.

  2. olivier

    Merci pour cet article. je me doutais bien que le discours de google au sujet du negative SEO était trompeur. Je ne comprends pas pourquoi ils ne se contentent pas de ne pas prendre en compte les liens jugés artificiels, au lieu de les rendre pénalisant.
    @sylvain : lorsque l'on a un exact match domaine et que l'on utilise souvent comme ancre de lien exact-match-domaine.com est-ce-que ce peut-être considéré par pinguoin comme une ancre optimisée ?

  3. Sylvain Auteur de l’article

    @ Denis
    J'admets qu'il est difficile pour Google de différencier une attaque de negative SEO par un concurrent d'une action de blast à l'ancienne pratiquée avec Xrumer. C'est d'ailleurs pour cela que le principe fonctionne. Tu as raison sur ce point.

    Par contre, je ne te suis pas du tout quand tu dis que nous subissons tous cela. Pour ma part, c'est la première fois que je le vois concrètement, et pourtant, j'ai suivi le linking de quelques sites... depuis que je fais ce métier.
    J'insiste sur le fait que je parle de liens avec ancres optimisés en très grand nombre. Je vois mal pourquoi des centaines de sites se mettraient à faire cela vers un autre site sans arrière pensée précise.

    @ Olivier
    Oui, c'est ce que tout le monde se dit, mais il faut croire que Google n'en est pas capable algorithmiquement.
    Pour un EMD, si tu as le www et .com dans ton ancre, ça passe, si tu as juste les mots clés, c'est mort.

  4. Yann

    Faites attention aux 301 aussi, des redirections de domaines pingouinés et vous allez sauter, quasiment à coup sur...

  5. C_drik

    Hello,

    Effectivement, il faudra un peu attendre pour connaitre parfaitement le nouveau Penguin mais les critères de pénalité au niveau des liens sont connus de tous. En fonction du site, il suffit donc de taper sur les ancres qui font mal. Surtout quand on voit que l'achat de milliers de BL profil forum, ... Ça coûte pas bcp !

    Après, c'est bizarre d'attaquer un site 9eme sur sa requête principale non ? A-t-il visé une seule requête ? Tous les concurrents de la page 1 ? As-tu identifié un coupable potentiel ? Après lancer cette attaque après une MAJ, ça brouille quelque peu les pistes avec les mouvements dans les serps. Bon courage en tout cas 🙁

  6. Sylvain Auteur de l’article

    @ Yann
    Merci pour ta remarque. Tu as raison, c'est une arme de plus pour dévaloriser un site dans la SERP.

    @ C-drik
    Dans ce cas précis, comme je l'indiquais, la personne a réalisé cette attaque au minimum sur tous ces concurrents de la première page, et visiblement sur plusieurs requêtes. Le leader de l'activité a d'ailleurs envoyé un mail à des dizaines de concurrents pour prévenir qu'il subissait cette attaque (il a réagit plus vite que mon client et a déjà fait lever sa pénalité à ce jour à ce que je vois dans la SERP).

  7. olivier

    @sylvain : merci pour votre réponse. une précision pour les EMD : vous voulez dire qu'il faut à la fois le www et le .com dans l'ancre, ou est-ce-que la présence d'un des deux seul (soit www soit .com) suffit ?

  8. ramzi

    Voilà une analyse qui a le mérite de trancher une question que nous nous posons tous. 2 choses importantes sont à retenir. D'abord qu'il ne faut pas se sentir conforté par le discours de Google sur le NSEO. De fait, non seulement ça existe et ça marche et Google ne peut pas l'avouer sans avouer du même coup que son algo a une faille à ce sujet.
    Ensuite, et c'est la note rassurante, un site âgé , avec un profil de liens "propre" et surtout composé d'une bonne partie de liens trustés a peu de risques d'être impacté par une campagne de négative seo.

  9. Sylvain Auteur de l’article

    @ Olivier
    C'est surtout la logique qu'il faut retenir. Le lien ne doit pas être sur les mots-clés seulement.
    Après, c'est la variétés des ancres de liens qui est importante. Une fois avec les deux, une fois avec seulement le .com, une fois sur une suite de mots, etc.

  10. Tubbydev.com

    Le Negative SEO ne consiste pas seulement à faire des liens avec les usines à backlinks. On peut aussi par exemple utiliser le flux rss sortant de la cible pour construire tout un tas de sites factices qui laisseront croire que la cible a voulu spammer le web. On peut aussi écrire en son nom quelques articles idiots, bourrés de fautes d'orthographes et truffés de liens.
    Il existe d'ores et déjà des agences de negative seo et même des sites qui font du chantage en faisant payer pour ENLEVER des liens qu'ils font à dessein sur eux.

  11. Patrice+Krysztofiak

    Nous avons totalement abandonné notre money site attaqué 2 fois : -www.macgamesandmore.com ( allez voir vous allez bien "rire" ). et nous entamons une activité complémentaire analogique avec un business model sans internet...

  12. Pierre Philippe

    bonjour Sylvain, merci pour cette analyse qui ne dit pas amen à tout ce que déclare Google ..( et cela pour tous vos articles ) . Effectivement le NSEO existe : un site que je suis particulièrement ( celui de ma femme ) s'est retrouvé avec de tres nombreux liens venant de site porno. et badaboum.. quand on pense au temps, à l'énergie , et à l'argent que l'on met pour positionner un site.. c'est à rendre fou..après on fait ce qu'il faut , cela prend du temps pour que le pingouin repasse ... mais le plus rageant c'est que cela semble impossible de savoir qui a fait cela ( je me trompe ?) ..du coup.. ca énerve encore plus grrrr !

  13. David C.

    Aucunement surpris. Ce qui est flippant, c'est que ça prend presque aucun effort, juste un peu de budget, pour commander des centaines de milliers de liens et de les faire pointer vers un site dans le but de nuire à son positionnement. En revanche, repérer les faux liens, les désavouer, demande un investissement considérable en temps et franchement, je ne vais pas passer 1h à 2h par jour à faire le travail que Google devrait faire lui-même.

    Il s'agit presque de se croiser les doigts et espérer que l'on ne devienne pas une cible...

  14. Philippe

    Il sera toujours très difficile à Google d'admettre ses failles ou plutôt que certains de ses outils ou algorithmes soient détournés ou pervertis car il existe dans cette entreprise une "philosophie" alimentée par l'utopie de l'un de ses deux co-fondateurs. D'ailleurs leur devise "Don't be evil" est une phrase évangéliste.
    Depuis toujours un afflux massif de backlinks vers un site jeune ou encore fragile aux yeux de Google était pénalisant et il se retrouvait directement en sandbox pour quelques mois si vous vous souvenez bien. Mais tant qu'on pouvait créer facilement des liens ancrés et que le plaisir de vaincre ne demandait ni trop d'effort ni trop de budget le negative SEO n'existait sans doute pas. Maintenant l'approche de la compréhension du fonctionnement du filtre Penguin a permis même aux intelligences les plus moyennes de comprendre que ce qui n'était plus un bien pour soi était devenu un mal pouvant être dirigé vers les autres.

  15. Jasmine

    Je suis vraiment atterrée par ce genre d'attitude pour détruire une entreprise. Il n'y a pas de mots pour décrire ce type de comportement. Cela me fait penser à la victime qui serait condamnée à la place de l'accusé, vous imaginez un peu la situation ? Pourquoi Google ne fait-il rien ? J'imagine qu'il ne va pas dépenser d'argent pour ce genre de problème si peu important à ses yeux ! Je trouve que le web n'est plus ce qu'il était et qu'il devient de moins en moins social avec toute la concurrence qui se créée, même jusque dans certains réseaux sociaux ... c'est bien dommage !

  16. Tubbydev.com

    Il n'est pas évident que le negative SEO soit une faille de Google.
    D'abord, il est relativement facile pour Google de déterminer un cas de negative SEO. cela ne s'applique que sur des sites déjà bien référencés or à quoi cela sert-il de faire du SEO en +, y compris du mauvais, pour un site déjà bien référencé ??
    Ensuite, a priori, sauf cas de psychopathes, le negative SEO sera "opéré" vers des sites bien référencés donc qui dominent une niche où il y a d'autres concurrents dont des challengers.
    Si l"on pousse le raisonnement sur le vice de Google, permettre du negative SEO permet aussi de lisser les "gagnants" du référencement et donc de n'avoir aucun grand gagnant donc de continuer à être incontournable comme "guide" ..

  17. 3615 seo

    Ca prête malheureusement à sourire qu'un site populaire comme ce blog Axe-Net publie ce genre d'article aujourd'hui, quand ça fait des années qu'il est prouvé que le NSEO existe... Plus lucratif que jamais, car à l'instar de la calomnie, et comme dit plus haut dans les commentaires, cela ne demande que très peu de ressources pour "attaquer" un site avec du negative SEO, alors que le travail exigé pour nettoyer l'e-reputation est gargantuesque... Mais du coup, même les pompiers du web y trouvent leur compte, et donc des agences web comme la votre aussi, puisque vous êtes de plus en plus payés pour faire l'audit et le nettoyage de profils de liens spammy, non ?

  18. Sylvain Auteur de l’article

    @ Tubbydev
    Tu as raison, il y a bien d'autres méthodes. Une de celle que je trouve d'une efficacité redoutable est le contenu dupliqué.

    @ Patrice
    Pas que du vérolé en BL pourtant ! Il n'était pas possible de le sauver ?

    @ Pierre @ David C
    C'est un point important je trouve, il est plus facile, rapide et moins coûteux d'être nuisible plutôt que de faire bien pour son propre site.

    @ Philippe
    Je pense que ce qui a changé tient au fait que Google sanctionne bien plus aujourd'hui qu'auparavant.

    @ Jasmine
    Deux options, soit Google s'en fout (Adwords sera une nouvelle source de trafic pour ceux dont le trafic naturel plonge), soit il a des oeillères et ne veut pas voir ce qui dérange et remet en cause ses beaux algorithmes.

    @ Tubbydev
    Avec un peu d'imagination, on peut aller bien plus loin, par exemple en empêchant des concurrents de dégager de quoi investir. Un tout jeune site peut être flingué à peine quelques semaines après avoir vu le jour...

    @ 3615 SEO
    Ce n'est pas le premier article sur le sujet du negative SEO sur ce blog. Mai c'est le premier avec un cas concret.
    Après, comme tu dis, AxeNet fait aujourd'hui du CA sur des levées de pénalité, c'est la vie, l'environnement change, les agences s'adaptent. Mais bon, devrais-je dire à ces entreprises qui nous contactent de se débrouiller avec leurs problèmes?

    Quelque part, je t'avoue que je suis tout aussi content de sortir un client du trou que de lui faire gagner du trafic lorsqu'il n'est pas pénalisé.
    Et puis au moins (et je ne parle pas là de negative SEO), mais ceux qui ont été pénalisés ont souvent les oreilles plus disponibles quand on leur parle de véritable stratégie d'acquisition de trafic. Auparavant, ils comparaient avec les vendeurs de BL pas cher et à ce jeu nous faisions rarement le poids en terme de budget...

  19. 256 couleurs

    Salut Sylvain
    Je permet un petit commentaire pour te parler d'une autre expérience client touché par un NSEO. C'est assez fou.
    Mon client bosse dans la mode chaussures exactement. Il m'appelle il y a quelques semaines en panique, "on ne me trouve plus sur Google", après questionnant, etc il se trouve qu'on ne le trouvait plus sur son nom de société.
    Mais vite je remarque qu'un site avait pris sa place et encore plus étrange il avait le même title et la même meta description.
    En cliquant sur le lien le site renvoyait automatiquement sur un site de contrefaçon avec DNS enregistré en chine.
    Donc j'ai voulu comprendre et voila la technique utilisée :
    La base, un blog hacké au USA, la dessus ils ont créé un répertoire (/shopping) dans ce rep ils ont placé une aspiration du site client, mais avec redirection lors d'un clic sur les onglets de navigation.
    En plus ils avaient ajouté une détection du referer, ainsi quand le clic provenant de Google on te redirigeait automatiquement vers un site de contrefaçon, qui d'ailleurs n'était jamais le même. Par contre par crawl du site ou en copiant coller l'url dans un navigateur aucune redirection n'était activée.
    Du coup je présume que Google lisait le contenu comme si c'était celui de mon client. Par contre je ne m'explique encore pas comment Google a pu pénaliser le notre au profit de celui-ci. Mes pistes :
    Le DNS hacké était ancien et il possédait 2 liens provenant de .edu et un d'un .gov

  20. Yohann

    C'est d'une logique imparable, plutot que de payer cher avec une stratégie SEO poussée pour être haut, autant payer pas cher pour faire descendre les autres et donc monter de notre coté.
    Après, Google devrait intégrer cela dans son algorythme car qd les liens pourris viennent de forums étrangers, arrivent d'un coup, par milliers, disons que c'est suspect surtout si le site incriminé a x années d'existance et aucun problème.
    La question concernant ton cas : à qui a profité le crime ? Si tu es sur de la boite, un petit courrier AR pour expliquer cela et que tu vas le suivre comme il faut et au moindre souci, tu sauras rendre la pareil 😉

  21. Frédéric Jutant

    Salut Sylvain,

    J'ai vécu une situation quasiment similaire à la tienne : un jeune site référencé à la cool depuis 4-5 mois qui se prend environ 6000 backlinks depuis des sites polonais, russes, et chinois sur son mot-clé principal en 2 jours. Dans mon cas, j'ai eu la chance de regarder MajesticSEO au bon moment pour désavouer rapidement les liens. J'ai observé quelques fluctuations, mais aucune perte de positionnement à moyen/long terme.

    Le negative SEO existe et fonctionne sur les plus jeunes sites au moins, et j'ai l'impression que c'est une pratique de plus en plus répandue depuis la mise en place des différents filtres Penguin. Avec ces critères de qualité de netlinking, il est limite devenu plus facile de faire tomber ses concurrents que de monter soi-même...
    Il faudrait qu'il fasse des progrès sur ce point pour limiter l'impact de ce type d'actions, sinon, pas sûr que Google puisser continuer à nier longtemps l'efficacité de cette pratique Black Hat.

  22. Guillaume

    Cela fait quand même peur de ce dire que tout le travail que tu peux faire pendant des semaines peut être réduit à néant aussi facilement grâce à des liens tous pourris posés en 2 jours. Ce sera intéressant d'avoir la fin de l'histoire en tout cas. Bon courage !

  23. Lisa

    Je viens tout juste de découvrir la fonctionnalité désaveu de liens ! Et ca m'a l'air bien compliqué avant que Google accède à la requête. Ils ont l'air de dire non à beaucoup de demandes...

    Bref, quand ils proposent de faire supprimer les liens soi-même, est-ce qu'on est 'daccord que ça sous entend de contacter soi-même les sites concernés et de leur dire « au fait, vous pourriez supprimer le lien pourri qui pointe vers mon site ? ».

    Non parce que ca me parait assez aberrant si c'est le cas...

  24. Sylvain Auteur de l’article

    @ 256 couleurs
    Nous avions abordé partiellement ce procédé ici http://blog.axe-net.fr/dossier-contrefacon-premiere-page-google/

    @ Yohann
    Trop long de remonter tous les sites touchés, il aurait fallu que mon client et ses concurrents s'entendent un peu mieux, mais ils sont concurrents...

    @ Fredéric
    Pour le moment Google continue de nier, s’est moins compliqué que de corriger l'algo:-)

    @ Guillaume
    Je doute de connaître le coupable un jour.

    @ Lisa
    Pour ma part, je trouve que la fonctionnalité de désaveu est plutôt pratique. Ce qui est casse-pied est de faire le tri dans son fichier de liens issus de Webmaster tools.

    Sinon, pour les suppressions "à la main", c'est exactement cela. Mais dans le cas de NSEO, il n'y a personne à contacter généralement (pas facile en russe), alors c'est essentiellement du désaveu qu'il faut faire.

  25. Lisa

    Merci pour la réponse 🙂 Ce qui me parait aberrant tout de même c'est le côté de Google qui dit « Ouais ben si on n'est pas d'accord, c'est nous qui avons raison et arrêtez de nous embêter avec le désaveu de liens. Contactez directement la personne à la place ! » O_0

    Pas étonnant venant de Google mais quand même 😉

    Au moins, j'ai appris quelque chose aujourd'hui et je t'en remercie !! 🙂

  26. Jonas

    Tout comme toi je l'ai vécu, mais pas sur un nouveau site. Il s'agissait d'une corporative au reins bien solides, ayant son site depuis 15 ans, non optimisé etc, et étant l'entreprise référante dans son domaine... Il n'a pas perdu 8 pages, seulement 2, à l'instar de ses concurrents qui ont perdu bien plus.

    Par contre on avait réussi à remonter jusqu'au coupable en profilant les liens et en croisant les entreprises touchées sur chaque plate-forme.

  27. Gégé

    Un de mes clients a subi du Negative SEO il y a quelques mois... Mais c'était une autre technique : ils ont copié collé des centaines de pages contenant des liens internes, ils ont pris soin de modifier chaque page en y insérant des ancres optimisées et des liens vers des sites pornographiques, le tout déposé sur un hébergeur à l'autre bout du monde avec un nom de domaine quelconque...

    Et bim, alerte et pénalité Google pour le client !

  28. Richard

    Google se fout vraiment de la gueule des webmasters avec ce système de négative SEO et de pénalités... Les règles sur ce qu'est un bon ou un mauvais lien sont à géométrie variable en fonction de qui en parle. En gros, tu risques rien si Matt Cutts fait un lien non optimisé dans le corps d'un article de son blog mais sinon, ouh là, c'est la panique, tu es un gros vilain et tu mérites une grosse pénalité!

    Google n'a toujours pas compris qu'il vivait grâce au contenu pondu par les webmasters. Plutôt que de coller des pénalités à tout va de manière aveugle, ils feraient mieux d'être transparents et de dire dans le GWT qu'est-ce qui ne leur convient pas et de simplement ignorer ces liens.

    Est-ce que le contenu d'un site web est forcément pourri parce qu'il reçoit des liens de sites pourris? Assurément non. Et ce d'autant plus que le propriétaire d'un site n'a aucun contrôle sur qui peut faire des liens vers un autre site. Le seul recours est le disavow qui prend des mois à être effectif. Bref, c'est très facile de plomber un concurrent. Mais comme d'habitude, ce sont les petits sites qui trinquent le plus car leur autorité est plus faible mais ça, Google s'en tape complètement puisqu'en général, ils ne leur rapportent pas grand chose en Adwords...

  29. Steven TRACY

    Ils sont bien petit ceux qui pratiquent le negative SEO.
    Ils ferait mieux de s'occuper de créer et entretenir un site aux contenus remarquables plutôt que de dénigrer ceux de leurs concurrents.
    Mais, c'est toujours pareil, la critique est facile, l'art est difficile.
    Ce qu'ils ne comprennent pas, c'est qu'ils vont passer beaucoup plus de temps à essayer de déréférencer les 10 premiers sites PAR MOT CLE!!! plutôt que de s'occuper d'accroître leur propre visibilité.
    Et, de toute façon, s'ils arrivent à déréférencer le site d'un concurrent, un autre le remplace et ils en sont souvent au même point.
    Ridicule et petit, franchement.

  30. Sylvain Auteur de l’article

    @ Jonas
    Le cas que tu évoques fait peur. Il en ressort que seuls des liens "protecteurs" et très trustés peuvent permettre de s'en sortir, car l'ancienneté seule n'a que peu d'incidence.

    Sacré travail aussi de croiser les données pour identifier le coupable.

    @ Gégé
    À mon avis, le contenu dupliqué a du jouer en défaveur de ton site en supplément.

    @ Richard
    Tu résumes bien, Google se fiche pas mal de ce qui arrive aux petits qui ne rapportent pas grand-chose en adwords.

    @ Steven
    J'aurais tendance à penser qu'au contraire, il devient moins couteux de massacrer un concurrent que de travailler son propre référencement...

  31. aubeaufixe

    hum qui a dit que le Negative SEO ne fonctionne pas qui s'en mord la langue, apparemment cela fonctionne à merveille pour le peu qu'on dispose d'un site web avec un NDD plutôt jeune et pas du netlinking trusté.
    J'ai du mal à croire que cela frapperait au hasard, si on gène les plates bandes du principal concurrent il envoi la cavalerie pour vous descendre aussi sec. En tous cas ça donne la chair de poule et on doit être en stress permanent de se voir subir cet action sur son site web !
    La nouvelle mafia pour descendre un concurrent ou une personne indésirable restera le NSEO...

  32. hibern@tus

    @Richard com' #28

    oui mais google, en "responsabilisant" les webmasters et en leur filant la trouille de la sanction, passe du "au pire il ne se passe rien" à "au mieux il ne passe rien", petite nuance mais qui évite une trop grande prolifération de bl artificiels (parce que si gg se contente d'ignorer les liens pourris au lieu d'appliquer des sanctions, les webmasters seront bcq plus tentés de faire du bl pourri sachant qu'au pire il ne se passera rien...) et réduit d'autant ses nécessités de calcul pour séparer le bon grain de l'ivraie, capacités qui semblent déjà pas mal congestionnées...

  33. Vincent+Drouin

    Salut,

    Il y a une autre forme de negative SEO qui se développerait, un de nos collègues à Montréal semble l'avoir vécu et j'ai pu lire la méthode sur un site spécialisé dans l'obscure.
    Je mets le concitionnel car des agences de nettoyage font parfois un tel travail de cochon que ça pourrait s'y apparenter.

    En tout cas, ce serait plutôt du "indirect negative SEO". En profitant de la psychose et du fait que les webmestres peuvent avoir l'habitude de recevoir des courriels plus ou moins pertinents pour enlever un lien, que ce soit pour pénalité manuelle ou suite à la mise à jour du filtre.

    Un blast de courriel agressif, "si vous enlever pas ce lien vous courrez le risque de vous faire flaguer", visant tous les webmestres des liens de votre concurrent peut permettre de diminuer drastiquement les forces de cette compétition, une fois les liens et le jus perdus.

    Donc on est pas dans un cas de contact transparent pour dire: hé mon lien est meilleur que celui que tu utilises, ça te dirait de l'ajouter. On est dans une technique basée sur le filtre Pingouin, le mensonge et la dissimulation, mais d'un autre côté il faut l'avouer, une certaine créativité dans l'art obscure.

    @+

  34. macside

    Bonjour,

    si ce que vous dites est avéré cela risque d'être la guerre des gros contre les petits sites...
    Esperons que google trouve une mesure moins facile à contourner...

  35. Gargamel

    J'arrive un peu à la bourre sur ce sujet pour essayer d'avoir vos lumières sur un cas particulier de Negative SEO : une personne (ou entité) malveillante poste des centaines de commentaires idiots et très typés spam (genre : "j'adore cet article") sur des centaines de blogs en signant en toutes lettres du nom d'un de mes clients (nom et prénom) et lien direct vers l'URL de son site web. Dans ce cas, est-ce que ça ne va pas au-delà du préjudice SEO, et n'est-ce pas un cas sérieux d'usurpation d'identité ? Ne peut-on pas se tourner vers la justice et porter plainte plutôt que tergiverser des heures et des semaines avec l'outil désaveu de Google ou en contactant les blogs un par un ? Est-ce peine perdue ?

  36. Emmanuel

    Bonjour Sylvain,

    Nous venons de découvrir que nous avons été victime d'une attaque de negative SEO en bonne et due forme donc, oui, je peux approuver que ça existe !

    En un mois, on a reçu 30 000 liens entrants depuis des sites tous plus pourris que les autres (de tous pays), avec des ancres optimisées vaguement dans notre domaine (mais en anglais, alors que notre site est en français). Les commentaires on été injectés sur des sites hackés, ça n'est visible que dans le code source de la page.
    On a eu des baisses sensibles de trafic mais je ne peux dire si c'est dû à ça, en tous cas ça n'a pas du faire du bien.

    On souhaite donc nettoyer tout cela pour désavouer les liens, sauf que Webmaster Tools ne liste pas tous les liens entrants. Quel outil recommanderais-tu pour pouvoir identifier au mieux ces liens pourris et les désavouer en masse auprès de Google ? Je suis tombé sur linkdetox.com, je ne sais pas ce que ça vaut.

    Merci d'avance

  37. Sylvain Auteur de l’article

    @ Emmanuel
    Malheureusement il n'y a pas de miracle.
    La meilleure solution me semble de vérifier chaque semaine les derniers liens acquis dans webmaster tools et de désavouer dans la foulée De mon côté j'ai laissé tombé linkdetox. Seobserver sera peut-être plus réactif aux nouveaux liens.
    Sur ce point Google n'offre vraiment aucune parade, leur seul discours consiste à dire que le négative SEO ne peut pas fonctionner...
    Là ou c'est particulièrement dangereux, c'est si tes précédents liens sont souvent fait sur des ancres optimisées. Pénalité manuelle ou Pingouin à la clef...

  38. Emmanuel

    Merci pour cette réponse.
    Oui, désormais on va vérifier cela avec attention. Mais la liste des liens est-elle complète ? Le fichier que GWT m'exporte s'intitule "ExternalLinks SampleLinks", j'ai peur que ça ne soit que partiel et en rater.
    Je vais creuser SEOobserver, ça a l'air pas mal en effet.
    Cela fait longtemps que nous n'avons pas fait d'ancres optimisées donc ça ne devrait pas être un problème (il y a qq années et en faible quantité).

  39. Sylvain Auteur de l’article

    @ Emmanuel
    L'urgence, ce sont les liens que Google connait, donc à priori ceux affichés dans webmasters tools.
    Mais attention, il y a deux listes (encore un truc débile, chez Google les ergonomes ont 51 semaines de congés quand il s'agit de leurs outils).

    Je résume pour tous :

    Dans GWT, rubrique "Trafic de recherche" et "Liens vers votre site".
    Sous les exemples : "Qui référence le plus votre site par le biais de liens", il y a un petit lien "Plus".

    Initialement, il faut télécharger les deux tableaux accessible à partir des boutons "Télécharger d'autres exemples de liens" et "télécharger les derniers liens". Puis dédoublonner les URL.

    Une fois le premier nettoyage fait, il suffit d'aller contrôler régulièrement (1 fois par semaine environ pour les mises à jour) en téléchargeant les derniers liens (bouton "Télécharger les derniers liens") pour voir si de nouvelles URL sont apparues.

    Tu complètes ensuite le fichier de désaveu. Attention, le fichier de désaveu doit être complété. Les nouveaux liens ajoutés ne doivent pas remplacer les anciens mais s'ajouter.

  40. Emmanuel

    Effectivement c'est loin d'être intuitif. Merci pour l'info.
    Du coup à regarder cette liste, j'hésite à en profiter à désavouer tous les liens de sites de mauvaise qualité comme les pseudo services SEO qui font une fiche sur chaque site web ou les pseudos moteurs de recherche qui compilent des listes de résultats foireux dans lesquels on apparait :/
    Rah cette boite noire Google...

Partagez sur :

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *