SEO propre, SEO sale, quels enjeux ?

Google lave plus blanc !

Durant ces dernières semaines, les pros du référencement ont été secoués par une nouvelle alerte de Google qui montre les crocs. Certains sites de publications (CP) n'auraient plus toute sa faveur.
Mercredi, une nouvelle salve chamboulait la SERP,
linking douteux et contenus de piètre qualité en faisaient les frais. L'update anti blackhat du nom de "Pingouin" guillotinait bon nombre de sites.

Profitons-en pour voir les choses plus largement.

Une fois n'est pas coutume, cet article s'adresse plus à mes confrères qu'aux visiteurs habituels.

Pourrir le web est-il notre mission ?

Tout d'abord, ne nous cachons pas les choses, le job d'un SEO consiste à manipuler les résultats de Google, d'une manière ou d'une autre puisque nous travaillons à mieux positionner des sites. Optimisation interne et linking sont les deux leviers principaux de nos actions.

Il y a toutefois de très nombreuses stratégies disponibles pour arriver aux mêmes résultats. Je passerai sur l'optimisation Onsite, même si elles sont rarement appliquées (je vois certains trucs lors d'audit...) les règles sont les mêmes pour tous.

En revanche, la recherche et la pose de liens peuvent être faites de manières très différentes. Certains réussissent (si si) en étant plus blancs que blanc, mais leurs techniques sont couteuses. D'autres y vont de manière franchement black hat (et ça marche très souvent). La plupart d'entre nous sont en zone vaguement grisâtre, notre blancheur s'est ternie avec l'expérience... et le goût de la facilité.

L'arbre qui cache la forêt.

Comme vous, même si ce n'est pas la seule corde à mon arc, j'ai usé de la facilité avec laquelle on pouvait poser des liens dans une page ultra thématisée grâce aux CP. D'ailleurs, le concept est loin d'être mort, il faudra juste être plus regardant quant à la tolérance de Google sur les divers sites qui permettent de le faire. Aymeric en parlait très bien dernièrement.

Mais au global, les pénalités auxquelles doivent faire face les sites de CP (et qui par ricochet nous retombent dessus en réduisant nos munitions) ne sont que la suite d'un signal très fort que Google tente d'envoyer aux professionnels du référencement et à leurs clients : « Je ne vous laisserai pas faire impunément » !

Il est donc très probable que d'autres pistes faciles le deviennent de moins en moins, c'est le jeu, il faut se faire une raison, les gens de chez Google sont tout sauf des andouilles... et ils ont des moyens gigantesques.

Le chat et la souris

Les vieux comme moi (mais j'ai encore des cheveux et je ne fais pas de teinture hein, un peu de respect les jeunots 🙂 ) Les vieux disais-je, en ont vu passer d'autres.

Je ne suis même plus capable de me rappeler les noms des différents filtres ou noms multiples des « box » qui ont toujours cherché à bloquer l'ascension des sites dont je m'occupais. D'ailleurs, je m'en fiche un peu, il y en aura tellement d'autres dans les années à venir...

Et comme à chaque fois, on s'adaptera, on trouvera une nouvelle manière de faire, un nouveau moyen. Le seul embryon de certitude que j'ai, c'est que cela va finir par couter de plus en plus cher.

Lutter contre l'automatisation et la facilité.

La nature humaine étant ce qu'elle est, la flemme à souvent été le moteur d'inventions géniales. Les logiciels à notre disposition pour automatiser certaines tâches ont permis d'aller poser des liens à tour de bras pour pas cher. La technologie est devenu un atout majeur.

Les machines étant ce qu'elles sont, Google possède probablement tous les moyens pour détecter  en retour ces manipulations. Quand sonnera-t-il la fin de la récré ?  Sans doute au fil du temps, à chaque fois que nous devenons trop visibles sur un levier spécifique.

Le marketing va-t-il reprendre le pouvoir ?

Comme vous, j'ai tendance à me moquer parfois de ce pauvre Matt Cutts. Mais toujours sur la forme, pas sur le fond. Car il a raison lorsqu'il dit qu'il est durable d'investir de manière professionnelle sur sa communication en travaillant son site intelligemment, en produisant les contenus qui donneront envie d'être partagés.

Quand je vois le trafic que génère la moindre infographie correctement réalisée. Quand je vois à quel point  un article utile peut devenir un incontournable dans la SERP, il serait malhonnête de dire que cela ne fonctionne pas.

Et qu'on ne me dise pas qu'un sujet ne se prête pas à la communication.
Croyez-vous que les sujets traités par Pierre Desproges prêtaient à rire au départ ? On peut communiquer et être original sur tous les sujets, j'en suis convaincu. Certains vendent bien des cercueils grâce à des filles dénudées.

Si le manque d'imagination devient une excuse pour le SEO bas de gamme, je ne suis pas certain que ce soit une bonne stratégie de long terme.

Bien sûr, le SEO reste nécessaire, même avec de bonnes idées, mais cette fois, Google n'aura rien à vous reprocher !

Méthodes et pratiques discutables.

Et vas-y que je te balance 500.000 liens d'un coup sur des supports...discutables franchement pourris. Et je te remets un blast de 40.000 vers mes sites « tampon » tous les jours.
Bien sûr, ça marche, et en prime c'est vite fait, pourquoi se priverait-on de se foutre ouvertement de Google ?
Parce qu'en bout de course, ça finit par se voir. Surtout quand c'est fait comme un cochon. Sans aucun doute, je pense que Google saura sanctionner ces pratiques algorithmiquement un jour. Pour le moment, j'avoue qu'il est encore aisé de passer au travers des mailles du filet humain que GG dresse en dernier recours. Mettre des vrais bonhommes au contrôle, ça coûte !

Mais quand même, réfléchissez : Vous trouvez normal vous, d'avoir 2500 BL (ajoutez éventuellement un zéro) vers l'une de vos pages pas terrible, et qu'aucun site d'autorité ou réseau social ne la mentionne ? Tss Tss, forcément que ça ne peut pas durer !

Pourra-t-on encore longtemps se moquer de Google.

Oui, sans doute, mais se moquer deviendra de plus en plus couteux.

En effet, tout le monde ne fait que de parler de ça dans la communauté SEO et les réseaux privés de sites sont sans doute une des meilleures solutions.

En revanche, s'ils permettent de gagner beaucoup de temps par rapport aux méthodes traditionnelles,  la mise en œuvre est moins simple que d'aller balancer du CP chez les autres.

Pourquoi ? Parce que chacun des sites doit avoir un profil hyper naturel, avec des articles sans liens,  avec des thématiques suffisamment recentrées, avec de vrais visiteurs de préférence ! Des gus qui partagent, bref, c'est autre chose comme boulot, bien plus long à mettre en place.

  • Il faut en avoir un paquet pour être efficace, 200, 500, 1000.
  • Il faut pouvoir les alimenter, les héberger sur des hôtes différents, avec des Whois différents ou anonymes.
  • Il faut utiliser des CMS différents, ne pas trop les linker entre eux (voire pas du tout).

Bref, pour rendre tout ce fourbi naturel, ça ne se fait pas en quelques semaines, et le temps c'est de l'argent.

La question à se poser, c'est de savoir s'il reste rentable de travailler ces quasi-vrais sites ou au contraire bosser le sien.
Pour une agence, la réponse est oui puisqu'elle travaille pour plusieurs clients, pour un webmaster indépendant... bonne chance.

Quelle part de risque ?

En complément, si je prends des risque pour moi, cela n'engage que moi. Mais en aucun cas je ne me permettrai jamais de prendre un risque pour l'un de mes clients.

Lorsque je travaille avec des gens dont le business sur le web fait vivre plusieurs salariés, je préfère dire non, les ralentir dans leur envies de grimper dans la SERP à 300 à l'heure, plutôt que de mettre en place des techniques trop border line.

Dans la vraie vie, une entreprise ne s'écroule que rarement sur un laps de temps très court, il y a de nombreux signes annonciateurs, le processus est souvent lent. Sur le web, Google peut faire disparaitre un acteur en 1 seconde. C'est à mon sens un point sur lequel cogiter avant d'entreprendre certaines actions un peu faciles, sans les completer d'un vrai travail de fond.

En résumé

Chers confrères, des claques, nous continuerons à en prendre, faites-vous une raison. Maintenant, quand on les cherche (soyons honnêtes), il ne faut pas non plus se plaindre.

Pour limiter les risques, la solution est d'intégrer totalement le SEO dans la stratégie marketing, de convaincre les autres services de la nécessité de leur implication, de les faire bosser aussi pour le web. Ce n'est pas chose facile dans les grosses structures, et dans les petites, c'est le temps et la ressource humaine qui fait souvent défaut.

Malgré tout, c'est sans doute la tendance la plus sûre pour ceux qui voudront faire la différence de manière pérenne, en revanche ces tactiques saines feront indéniablement exploser les coûts de la visibilité sur le web.

Pour vous rassurer, sachez tout de même que le coût d'une bonne campagne de visibilité web n'est pas forcément plus élevé que celui de la participation à un salon régional, et son impact est bien plus durable. Reste que certaines entreprises sont encore loin de ce mode de calcul...

Je pense sincèrement que les acteurs du web qui feront bien leur boulot ont beaucoup de places à prendre dans les années à venir. Mais d'une manière ou d'une autre, il faudra sortir le chéquier !

Sans fayotage de ma part, un petit mot de Mister Matt Cutts en personne sur le sujet (Distinguished Enginer s'il vous plait !). Il promet la fessée au SEO Black Hat... A suivre...

Article connexe :

Un bon complément  vu au travers d'un prisme différent chez Papy Spinning :

http://www.webcontentspinning.com/google-update-penguin-webspam/

 

Notez cet article

Partager sur Facebook
Partager sur Twitter Plein
Partager sur linkedin
Partager sur Google+

89 réflexions au sujet de « SEO propre, SEO sale, quels enjeux ? »

  1. lereferenceur

    C'est là que l'on voit que le Blackhat peut être dangereux. Acquérir des milliers de backlinks via des méthodes blackhat, c'est super quand ça marche. Mais quand Google passe à l'action et décide de sanctionner tout ça, pour retrouver un linking naturel, faut s'accrocher.
    Supprimer tous ces liens ne sera pas chose facile ...

    Mais bon logiquement les référenceurs BH utilisent les blasts vers des pages qui parlent de leur site et donc qui ne leur appartiennent pas. (Comme les CP). Ca limite les pénalités pour leur site et c'est le CP qui prend.

  2. Nicolaseo

    je voulais faire un article pour expliquer ma vision des choses et tu l'as fait 😉

    merci car je manque vraiment de temps en ce moment et comme à chaque "gros update de google" je passe mon temps au tel, skype et msn...

    je vais pouvoir refiler ton article 😀

    sauf que pour moi là cette fois il n'y à pas vraiment d'algo derrière ça mais juste comme tu le dit "un signal très fort" car je suis entrain de lancer une marque (le mot existe pas) des pages ont été indexé par erreurs et après update les serps ne sont plus les mêmes, aucun lien n'as été fait et aucune modif de notre part avant et apres update...

    donc que ça vienne d'un "linking trop black hat" j'y crois pas une seconde et je pense que beaucoup l'on dit des sites crades sont toujours là et des propres ont sauté...

    en plus de ça moi perso ça fait des mois je bosse une bonne centaine de sites via ghstools, senuke, lfe etc.. et j'ai des milliers d'autres que je bosse pas ou très peu et linking ou pas ya aucun rapport certains ont été touché et d'autres non, qu'il y est activité ou pas !

    j'en conclu donc que coder un petit truc qui dit "faire bouger x% des serps" c'est bien plus rapide que de vraiment lutter contre les black hat avec un vrai algo... et qu'on se fou vraiment de notre g...

    Je dit ca mais je dit rien... je retourne bosser comme avant et comme avant je vais continuer de me perfectionner avec le temps car comme avant faut vivre avec son temps 😛

  3. Sébastien

    Je comprends la raison de l'article et on ne peut qu'être d'accord... Mais ne pas croire que cela changera grand chose.
    On aurait pu faire le même article pour la finance après la crise, autrement plus grave que le petit Pingouin des derniers jours, en remplaçant juste quelques mots clefs. Et on sait tous (en tout cas, ayant beaucoup d'amis dans ce secteur, je peux vous le dire si vous ne le savez pas), que c'est reparti de plus belle et que la crise n'a rien changé.
    Je ne dis pas qu'il faut être fataliste. Je comprends les bonnes intentions derrière cet article et j'irais même jusqu'à dire qu'en tant qu'entreprise, je ferais plus confiance à quelqu'un qui dit cela. Mais je suis persuadé que le pingouin sera suivi de beaucoup d'autres animaux et qu'ils changeront très peu la mentalité de beaucoup de SEO.

  4. Romaric

    Encore un article qui reflète bien la réalité.

    Étrangement l'arrivée du Penguin farceur m'a fait penser à cette judicieuse remarque dans un article récent, concernant les ancres "cliquez-ici".

    Par contre autant je suis en accord absolu avec le fond de la pensée de Google, éviter le spam est une très bonne chose pour l'utilisateur final, mais transformer une technique white/grey en black d'un seul coup de pinceau, signe forcément la disparition des serps de nombreux sites qui ne le "mérite" pas.

    Et surtout ce qui est le plus triste est de ne pas proposer une solution pour les gens qui travaillent leur site et souhaitent réparer les pots cassés.

    J'ai bien compris la nécessité de supprimer tout ce qui fait penser à du spam, cela veut-il dire, demander la suppression de l'ensemble des liens émanant de digg, CP et autre chose en tout genre ? Noyer le poisson avec d'autres liens qui possèdent des ancres plus variés (ce qui semble marché si on regarde les résultats récents des BH) ?

    Alors oui encore une fois c'est surmontable, de toute façon en tant qu’entrepreneur du web quelle autre solution que de rebondir pour réussir ? Élever des chèvres dans le Larzac ?

    Enfin merci Sylvain pour cet excellent article qui donne au moins une piste de réflexion, chercher la validation du public avec une communication différente ou reconnue, même dans des thématiques qui ne s'y prêtent pas.

  5. Mat

    Malheureusement ce n'est pas aussi blanc ou noir et beaucoup de "grey" adepte de la suroptimisation (mais pas du boudinage) on pas mal morflé ces derniers jours alors que Google connais le phénomène depuis longtemps. Le coté loterie, et prédominance de gg en agace plus d'un en ce moment (seo, client...). De là à faire émerger d'autres moteurs...pas gagné.

  6. Yassine

    j'ai plus adoré la conclusion bien que je ne sois pas sure qu'une campagne web soit moins couteuses qu'une opé terrain

  7. olivier

    Merci pour cet article. Je ne pense pas, contrairement à ce que j'ai lu sur pas mal de forum, que des liens sur des sites jugés de faible qualité ou hors thématique par google puissent maintenant pénaliser un site, çà deviendrait trop facile de dégager des concurrents. Par contre çà va renforcer grandement l'influence des réseaux sociaux, de façon indirecte : en eux-même ils n'apportent peut-être pas grand chose, mais dans le cas d'une page qui reçoit des liens, je pense qu'ils vont maintenant servir d'indicateur à google pour déterminer si les liens reçus sont naturels ou pas, et ne pas leur accorder de valeur le cas échéant.

  8. Maximilien

    En effet, le référenceur s'adaptera toujours aux MAJ de Google, il y a et il y aura toujours des moyens et des solutions de contourner l'algorithme de Google qui ne sera jamais parfait, ce qui est impossible. Malheureusement, la tâche de référencement sera clairement de plus en plus difficile pour les nouveaux sites, et cela se répercutera indéniablement sur les coûts liés au référencement : il faut déployer plus de moyens, éventuellement développer son offre avec du SMO, multiplier ses actions pour obtenir des liens ultra ciblés, faire de l'achat de liens, trouver des liens de sites trustés...

  9. Franck Frémont

    J'aime bien votre article pour au moins deux raisons:
    - il rappelle l'importance du contenu. A quoi ça sert de créer un super trafic sur un site qui n'a rien à dire ou à proposer?
    - il prend en compte la notion de risque dans l'utilisation des techniques les plus aventureuses et rappelle le prix qui risque d'être à payer: le déclassement pur et simple de son site.

  10. Giuseppe

    Finalement ces nouvelles sanctions récompenses les techniques SEO white hat en libérant quelques places occupées par les bourrins! 🙂

  11. Phil

    Même en voulant faire du propre, pour etre concurrentiel sur certaines requêtes nous avons du passer par les CP.

    On a mis des textes propres (non spinnés) passé des heures la dessus, fait des listes...

    A présent il faut reconstruire le chateau de carte, un qui soit plus qualitatif.

    Y a t il un site ait procédé à un audit sur les CP pour savoir qui était impacté et qui ne l'était pas ? (Si oui url plz !)

  12. lionel

    Bonjour Sylvain,

    Je pense aussi que les CP ne sont pas morts tout comme l'automatisation d'ailleurs. Mais il y a 1 problème de taille pour les CP. Les propriétaires ne sont pas à l'abri des spammeurs bourrins qui s'acharnent sur chaque article.

    L'automatisation demande une maîtrise un travail de fond minimum que le référenceur ne pourra plus occulter.

    amicalement

  13. Revolution

    Bonjour,

    Grosse réflexion globale sur les positions des professionnels du référencement ! Je ne serais pas aussi catégorique sur le nombre de sites nécessaire pour que cela soit efficace dans un réseau privé, ni sur leur organisation.

    En effet, on parle bien de sites de qualité non ? Qui n'ont rien à cacher ? Destinés à de vrais internautes ?

    Donc pourquoi prendre les précautions qu'on voit partout pour monter des linkwheel "de base" ?

  14. Antonin

    Ahhhh un bonne et vraie réflexion SEO dès le réveil, c'est sympa (oui oui je sais je suis accro ^^)

    Je suis tout à fait d'accord sur le fait que toutes ces "améliorations", en tous cas cette évolution de l'algo de Google, implique un développement de ressources de plus en plus importantes donc de plus en plus d'argent.

    Tu parles ici de construction de réseaux privés de centaines de sites propres et de qualité dont certains devraient devenir des références dans leur domaine. Je partage totalement ton avis : le privé c'est l'avenir mais faut avoir la structure et les moyens derrière pour développer ces réseaux ...

    En revanche, la solution (d'avenir) dont tu ne parles pas et qui permettrait de diminuer considérablement son réseau (à une dizaine de sites), c'est l'échange d'articles.
    En effet, plus besoin d'avoir 500 sites avec 50 dans une même thématique pour pouvoir faire 50 Bls de très bonne qualité vers un site client.
    Il suffirait d'en avoir un dans chaque thématique et de faire 49 échanges d'articles avec des sites de qualité de cette thématique.
    Cela demanderait beaucoup moins {de ressources|d'argent|de temps} que ce soit pour le lancement mais aussi et surtout pour la mise à jour de ces sites avec la publication régulière de contenu. De plus, cela diversifierait les sources évitant que Google fasse, par le linking externe, un rapprochement entre les différents sites clients et puisse à terme les pénaliser (qui sait ?)
    En revanche, cela demande un réseau de référenceurs ... Je pense donc que l'avenir est aussi là : à la création de réseaux/partenariats entre SEO que ce soit via des forums/blog SEO comme celui-ci, Twitter ou via de nouveaux sites privés créés pour cela !

    Sur ce, je vais prendre mon petit déj des pistes plein la tête 😉

  15. Christophe

    Il y a également un point sur lequel je doute, c'est que ce "pingouin" va nous faciliter la tâche pour faire du NSEO. Oui peut-être que cela peut fonctionner pour certains sites mais pas pour des monstres qui sont dans les premières positions depuis longtemps avec un profil blanc comme neige. Je me trompe peut-être mais je trouve cela trop facile !

    Comme tu dis, on va donc devoir encore travailler plus sur nos sites et surtout être plus créatif.

    Concernant le budget, vas-y maintenant pour convaincre la PME que ta stratégie plus couteuse que tes concurrents est la bonne. Elle ne comprend déjà rien au référencement et maintenant on va lui proposer un budget de la mort qui tue. Bref, il faudra mieux cibler nos prospects et trouver des clients de plus en plus sensibilisés aux problèmes de visibilité sur le web. C'est peut-être ça la solution pour nous sauver 🙂

  16. pierre

    Bonne réflexion, Sylvain.
    J'aime l'idée de fondre le référencement dans le webmarketing 😉

  17. Jérémy

    "Mettre des vrais bonhommes au contrôle, ça coûte !" Voilà la limite entre les deux mondes, le coût !

    on va dépenser plus mais Google aussi...Qui a le plus de fric ? on a tous la réponse ^^

    Il va falloir ruser encore plus et la flemme sera toujours génératrice de choses et d'autres ... Plan perso, réseaux privés, CP transformés, des bots avec AI au point, il y a tout un panel d'outil gratuit pour faire face...Il suffit de réfléchir un peu et de sortir son épingle du jeu.

    Les risque comme tu le dis, c'est qu'effectivement il y aura toujours quelqu'un de l'autre côté pour nous empêcher de faire les cons. Et quoi de plus motivant que de chercher à déjouer Google ^^ ...

  18. loran750

    Sylvain arrive toujours avec ses articles de synthèse, avec la vérité suivante qu'on ose pas toujours s'avouer : si on se fait pincer en flagrant délit de manipulation, c'est qu'on a les mains sales.

    Pour ma part, avec des clients au budget limité voire assez fortement limité, je suis obligé de verser dans la zone grisâtre du référencement.
    Obligé ? Non, bien sur, personne ne m'oblige, mais comme tout référenceur qui a affaire à des clients, pas forcément au courant des enjeux, ne sachant pas l'importance d'internet dans leur stratégie, et qui à la question "Que voulez-vous" vous répondent "Je veux être 1er", sans vous donner le ou les mots clés de son activité, et bien ... hey, on y va, et par par 4 chemins, mais par 8, 16, 24, 36 chemins.
    Des chemins pas toujours des autoroutes, des chemins domininaux, en terre, boueux, recouverts de végétations.

    Voilà le lot quotidien de ceux qui travaillent avec des clients qui n'ont pas intégré internet dans leur stratégie. Ou qui, si c'est le cas, sont en mode "start-up" au budget limité.

    Alors que faire ? On se prend une claque et on cherche le prochain plan grisâtre qui permettra de tenir 6 mois, 1 an... quoi que j'ai l'impression que l'écart se resserre et qu'il va falloir

    Pour ma part, j'ai décidé de séparer mon activité en 2 :
    - les clients pas riches, avec qui je partage le risque, et qui le comprenne réellement (qui sont aau courant de Panda, Penguin,...).
    - les clients qui ont compris qu'il faut investir, et là, on prendra du temps.
    Dans les 2 cas, le coût va augmenter.

    Et les clients sans budget je vais progressivement arrêter de les prendre, parce que ... j'ai un autre emploi 🙂 🙂 🙂 et que j'ai pas envie de me casser le cul !

    ps : une interprétation de ma part de la lettre de Matts Cutts, traduite de manière différente que celle du site officiel : http://www.unpeudeseo.com/2012/04/25/matt-cutts-grille-encore-un-plan-seo/#matt-cutts-contre-attaque

  19. Yann

    J'espère que cela va donner une bouffée d'oxygène au web, mais il semble selon Matt que cela ne concerne que 3 pour-cents des requêtes qui vont être blanchies plus blanc que blanc... Sûrement les plus concurrencées.

    Cela reste quand même très insuffisant. Les black ont encore de beaux jours devant eux. Je pense de toute manière que dans ce domaine il faut prévoir de voir tomber un site ou un réseau entier du jour au lendemain et donc de ne pas mettre tous ses œufs dans le même panier.

  20. Marie

    Quand on voit la façon dont le web peut être envahi par certains pseudo contenus illisibles, on ne peut que se réjouir si Google arrive à les déceler. Je serai curieuse de savoir combien de ressources ces sites "pourris" demandent sur internet en terme d'énergie utilisée, d'espace serveurs, de connexion, etc., car tout cela a forcément un coût et un impact sur l'environnement. Le monopole dont jouit Google et sa façon autoritaire et parfois arbitraire d'exercer sa loi, ne doit pas nous empêcher de réfléchir à une éthique de la SEO.

  21. Martin

    google a désormais les moyens financiers de vérifier manuellement au moins 1% des résultats sur les requêtes. Pourtant il ne le fait pas. Certes, sa philosophie reste la même depuis ses débuts : réussir à tout gérer dans un algorithme. Mais le jour où google considérera qu'un LABEL HUMAIN attribué à un site bien référence est nécessaire, il embauchera... des emplois peu qualitfiés ! Martin

  22. bruno

    Tu m'expliquais dernièrement que tu utilisais beaucoup les CP (mais pas que), prévois tu de nouveaux tests avec cet outil et une nouvelle liste de CP à utiliser de manière fiable?

  23. LaurentCW

    Le seul regret est de voir à quel point tout est fonction de Google puisque aucun autre moteur n'est parvenu à s'imposer sans intervention affichée ou non de l'Etat, type Baidu en Chine ou Yandex en Russie. Et encore, même dans ces pays, tout est encore question de ressources...

    N'oublions pas non plus que cette mise à jour est intervenue après une annonce Adwords précisant qu'il n'était plus nécessaire de travailler les singuliers/pluriels, les avec/sans fautes... dans les requêtes travaillées puisque l'outil allait de lui même afficher maintenant les annonces, y compris sur ces mots. bref, plus de potentiel d'affichage, et donc plus de potentiel de clics/de business pour Google.

    Les deux MAJ combinées devraient assurer/garantir un bon résultat trimestriel lors de la prochaine publication des comptes Google à la bourse.

  24. sam

    @Antonin
    'En revanche, cela demande un réseau de référenceurs … Je pense donc que l’avenir est aussi là : à la création de réseaux/partenariats entre SEO que ce soit via des forums/blog SEO comme celui-ci, Twitter ou via de nouveaux sites privés créés pour cela !'

    Belles pistes !!!

  25. Svetlana

    L'article qui résume parfaitement la situation : et je retiens surtout l'explosion des coûts SEO (pour les clients, mais aussi pour les agences : les bons référenceurs vont être de plus en plus recherchés, la sous-traitance qualitative va couter plus cher...).

    Car le manuel et le qualitatif semble reprendre la main sur l'automatisation et la quantité... Ou tout du moins, il faudra utiliser un savant dosage de différentes techniques sur des requêtes concurrentielles !

    Bonne nouvelle : la créativité va être stimulée 😉

  26. Thomas

    Je suis d'accord avec toi dans l'ensemble. Il faut vraiment commencer à regarder la qualité des liens que l'ont crée.
    Cependant, je ne suis pas sur que cette mise à jour de la part du géant soit une bonne chose car il ouvre la porte au NSEO. C'est désormais beaucoup plus facile de virer un concurrent. Il suffit de poster dans des réseaux de blogs pourris et de faire quelques blasts Xrumer. C'est cet aspect là qui me préoccupe le plus avec cette mise à jour.

    Google cherche à améliorer la qualité de ses résultats (enfin c'est ce qu'ils disent), mais quand on regarde les résultats je les trouve dans l'ensemble beaucoup moins pertinents qu'avant.
    Mon avis sur Penguin est clair, c'est une grosse erreur de la part de Google. Mais on a pas le choix, il va falloir adapter ses méthodes. Et pour ce qui est de l'automatisation, les machines auront toujours de l'avance sur l'algo.

  27. Michael

    Je pense que globalement Google a fait plus de bien que de mal avec son changement majeur d'algo.

    Mais que niveau dégats collatéraux, par compte, c'est un vrai massacre. Il faudrait arriver à savoir combien "d’innocent" aux mains blanches on dira... tombent pour des BH qui ont fait les sauvages au niveau ref.

  28. Dan

    Cette nouvelle vague aura au moins eu le mérite de mettre au grand jour, par de forts déclassements, les référenceurs qui se disent Pro et qui travaillent au final comme des porcs. Mais pas d'inquiétude pour l'avenir, il reste encore de la place pour se positionner durablement si l'on reste clean dans ces actions.

  29. Mickael

    Une bonne analyse comme d'habitude !
    La question c'est finalement est-ce qu'il existre vraiment une méthode de travail entre les deux (grey) et si oui qu'elle est la limite pour ne pas tomber dans du blackhat.
    Parce qu'avec une méthode que j'estime être du "blanc foncé" 🙂 la même pour tous mes sites, cette semaine, certains n'ont pas bougés et bizarrement d'autres oui et sur des requêtes pas forcément travaillées !
    Pas facile tout ça... 🙂

  30. Matthieu D.

    Il serait quand même temps que tout cela disparaisse.

    Je ne vais sans doute pas me faire des amis étant donné que la majorité de ceux qui liront cet article sont des professionnels du SEO, qu'on touche à leur métier et à leur vie de tous les jours, mais il faut bien se rendre à l'évidence : du point de vue de l'utilisateur, les annuaires, sites de CP n'apportent et autres manipulations des résultats avec des fermes de lien n'apportent strictement RIEN, ils ne font que pourrir le web.
    C'est vraiment un phénomène auto-entretenu par la communauté SEO mais qui n'a aucun intérêt réel pour l'utilisateur.

    Donc c'est très bien de penser à vous et à votre métier, mais la majorité des gens attendent des SERP pertinents, pas des résultats biaisés par des SEO qui profitent du système.
    Je suis donc très content que Google se bouge enfin pour sanctionner ces méthodes pas du tout éthiques et qui, si elles occupent bien les SEO, pénalisent clairement l'utilisateur final (et là, on parle de la majorité des gens).

    Dans le marketing, la priorité doit être dans la pertinence du produit, pas dans sa suroptimisation (même s'il est mauvais).

    Aujourd'hui, les SERP ne sont pas les plus pertinents pour l'utilisateur, ils dépendent (au moins en bonne partie) des compétences du SEO derrière les sites concernés. C'est mal. L'utilisateur n'a pas à dépendre de personnes complètement partiales pour faire son choix. Google doit lui présenter les résultats les plus pertinents, pas les plus optimisés.

    En allant jusqu'au bout de mon raisonnement, je pense même que les sites qui ne vivent que grâce à leur SEO (ou par adwords, d'ailleurs) sont profondément malsains : ils comblent une lacune produit qui fait qu'ils sont incapable de s'en sortir sans une suroptimisation SEO. Un site qui répond à un vrai besoin, et qui se répand uniquement grâce au bouche-à-oreille, c'est largement plus sain.

  31. Soul

    Il ne faut pas oublier que c'est un algo derrière, ils ne peuvent pas tout voir, comment une machine peut comprendre un texte? Je veux bien qu'il y ait des matrices contenants les mots proches mais c'est impossible à mettre en place, il faut faire du récursif sur toutes les pages concurrentes et ça coûte vraiment cher en ressources serveurs.

    Seul l'humain peut facilement voir la qualité d'un site et encore si c'est des sujets génériques, dans une niche technique seul les pro peuvent comprendre quelque chose.

    Fin bon je sais coder et optimiser un site, j'ai pas trop peur pour l'avenir, le metier risque de devenir très intéressant 🙂

  32. Sébastien Sabattini

    J'en ai déjà parlé sur l'article de Papy Spinning, je suis d'accord sur le fond avec Sylvain, pour autant, deux arguments m'interpellent : tu dis Sylvain que

    , je me doute que tu penses à l’intérêt de Google de déclencher cela et que tu sous entends qu'il le fait pour l' Adwords et dans cette vision, nous sommes des cibles, mais je crois que dans le fond, ce sont des webmasters de sites et propriétaires qui ont tentés de se lancer grâce aux forums thématisés sur le réf qui sont tombés en masse, nous, nous nous adapterons toujours parce que nous avons les moyens techniques de le faire (je veux dire par là, la flotte de sites qui nous permet de faire assez de revers engineering pour commencer dès aujourd'hui des modifications sur les mises en place que nous avons faites à nos clients qui auraient été sanctionnés, rien de présomptueux dans cette phrase)

    Le deuxième argument sur lequel je ne suis pas d'accord est celui qui dit Google a les moyens financiers et techniques pour tout détecter donc, mieux vaut rentrer dans le rang (peut être un abrégé trop rapide de ce que tu as dit j'en convient), je suis d'accord avec la première partie de ta phrase mais pas avec la seconde, puisque si je comprend bien que Google peut effectivement faire respecter ses règles de manières strictes, force est de constater qu'il ne le fait pas, tout simplement parce que l'engagement financier pour cela serait bien trop important eût égard à ses objectifs, par des coups de trafalgare comme celui de cette semaine, ils tentent de faire revenir l'ensemble de la communauté web sous son joug mais dans les faits c'est un aveu de faiblesse, un coup de bluff et je suis persuadé que cela développera encore plus l'envie à des pro de faire du black hat mais beaucoup plus discrètement qu'avant !

    Maintenant sur le long terme et dans le cas des référenceurs pro, je pense que nous seront extra white sur les sites clients mais certainement grey sur nos linkwheel permettant leur avènement sur les recherches organiques et je suis parfaitement d'accord avec la remarque d' Anthonin : les référenceurs encore plus demain qu'hier, vont se construire leurs réseaux virtuels et non connectés et peut être échanger les plumes puisque meilleur connaisseur de mon réseau, pourquoi ne serais je pas à l'origine de l'écriture de l'article sur ton client sur mon espace pour que tu me rendes l'appareil plus tard ... dans cette situation, cette promotion est certainement une des plus durables, c'est humblement l'idée que je me fais de l'avenir de notre métier ...

  33. Nico

    Matt Cutts promet la fessée... « promet promet ». On l'a bien reçue la fessée (enfin) ! et avec une pincée de dommages collatéraux sauce Google (présent !). Ingrédient secret de ses updates (quasi mensuels maintenant). Les coupables sont là.

  34. Labisse

    On ne peut-être que d'accord mais dans ce filtre le contenu et la qualité d'un site sont complètement oubliés. GG en se focalisant uniquement sur l'optimisation onsite et les dérive sur les BL oublie (volontairement ?) la qualité intrinsèque d'une page web. Un référencement WH ne veut pas dire que le site est meilleur qu'un page référencée de manière GH ou BH. Car ce que je vois aujourd'hui c'est une nette perte de pertinence dans les SERP avec de très bon site qui on disparu au profits de site nullissime niveau contenu, design, ergonomie etc... et je vois des sites remonter dans les SERP qui ne devraient même pas être dans le top 100 tellement le contenu est minable.

    Alors il est bien gentil GG...

  35. LaurentB

    Franchement, si tu regardes de plus près les sites visés, c'est un coup de pied dans la porcherie.
    Le problème étant que le poulailler a été touché par des effets de bord déplaisants.
    Plutôt que s'inquiéter du truc, je pense au contraire que c'est génial d'observer comme Google est encore tellement à la bourre contre le BH SEO.

  36. yvan

    Salut Sylvain,

    Effectivement, je constate principalement que les sites d'autorité (type forum) reprennent leur place sur beaucoup de requêtes. Le problème de ce fameux pingouin, c'est qu'on ne sait pas trop dans quel sens aller...Avec caféine, on savait que la rapidité du site impactait sur le résultat, avec panda la qualité du contenu. Mais pingouin ? On nous dit que les CP sont pénalisés, donc a éviter ? pas de black hat non plus, alors quelle stratégie doit-on adopter maintenant, j'avoue que cette question me semble difficile à cerner...

  37. Mat

    Le fond du problème reste le même : le SEO est une concurrence pour Google. Non pas parce qu'il a tendance à manipuler l’algorithme (il suffit de comparer la qualité des résultats de Google à la concurrence pour voir qu'ils conservent une avance significative et ce bien qu'ils soient la cible principale des optimisations), mais parce qu'il concurrence la publicité.

    Dés lors, l'objectif de Google n'est pas tant de détruire le SEO, juste de le rendre cher.

    Ne pas détruire le SEO, tout simplement parce que le SEO onpage travaille pour Google : en optimisant le HTML, la sémantique, l'accessibilité, le poids des pages, ils facilitent l'indexation. Si Google insiste tant sur la vitesse de chargement d'une page, ce n'est pas tant pour faire plaisir à l'internaute mais surtout parce qu'un pauvre ko multiplié par cent million d'explorations de sites, ça finit par faire une sacrée économie. Soyons réalistes : vu la force de frappe intellectuelle de Google, s'ils voulaient détruire le SEO, ça ferait un bail que ça serait quasiment le cas.

    Le rendre cher par contre, c'est conserver cet avantage (l'optimisation onpage reste nécessaire et peu chère) tout en rendant plus séduisante l'alternative publicitaire sur une clientèle vraiment intéressante : le petit, la PME, le local. Si le SEO est cher, en particulier parce que les référenceurs indépendants (qui tirent toujours les prix vers le bas dans un marché) sont en difficulté, alors le coiffeur, la petite entreprise, l'avocat du coin fera plus facilement le choix d'une publicité pas trop chère sur sa niche.

    Bref, rien de nouveau sous le soleil de satan.

  38. Zistoloen

    Bonjour Sylvain,

    A la lecture de cet article, on se rend bien compte que les référenceurs ne font que manipuler Google et son algorithme. Mais puisque nous ne pouvons pas faire autrement, il faut donc essayer d'être extrêmement White Hat. Et je suis d'accord que faire un réseau de sites est une très bonne idée mais tellement chronophage.
    Enfin, tout ça pour dire que je suis tout à fait d'accord avec l'article : le SEO deviendra de plus en plus coûteux.

  39. Sylvain Richard - AxeNet Auteur de l’article

    Oups, difficile de répondre rapidement à tous, j'y reviendrai.

    @ Matthieu plus spécifiquement

    Je suis plutôt d'accord avec toi sur le fond, mais pas forcément sur la finalité.
    Un SEO ne pousse pas n'importe quel site dans la SERP sur n'importe quelle expression. Je crois sincèrement que les sites travaillés par les référenceurs sont généralement très pertinents par rapport à la requête de l'internaute.

    Quand Google s'amuse à faire le tri par lui même, les résultats sont loin d'être toujours convaincants. Je te donne un exemple qui vient de faire l'objet d'un débat sur WRI :
    http://twitpic.com/9f7395
    Si tu me trouves la moindre once de pertinence ici, je veux bien que tu m'expliques.

    Les adwords sont eux aussi très pertinents. D'ailleurs, qui irait payer pour de l'adwords ou du référencement naturel si c'est pour pointer vers une page inappropriée qui ne convertit pas ? Ce serait bête, non ?
    Mon article ne défend pas à tout prix les SEO, mais ceux-ci ne sont pas les « méchants » tels que certains veulent le faire croire.

    @ Mat

    D'accord avec toi

  40. Gazelle du web

    Bonjour Sylvain, merci pour cet article pertinent dont je partage l'analyse. J'avais eu l'occasion d'échanger de faire un petit article sur ma vision du SEO dans le futur. Je pense que le travail d'un SEO devrait s'axer prioritairement sur la qualité des contenus et des BL. C'est un travail long (de petites fourmis) mais qui apporte une vrai stabilité dans les résultats.

  41. Le juge

    ON a plus ou moins le même point de vue - JE l'ai déjà dit dans de nombreux commentaires mais la dernière mise a jour me fait beaucoup penser au lancement de la première mouture de Panda - les sites qui tombent, le buzz etc ... Et j'ai envie de dire un peu la même chose que dans l'article que j'y avais consacré - arrêtez de flipper et lâchez moi la grappe - cette mise a jour elle avait été annoncée et tous les sites qui sont tombés avaient franchement des choses a se reprocher - alors oui il y a eu quelques effets de bords mais les choses vont se tasser dans les prochains jours.

  42. Matthieu D.

    @Sylvain Merci pour la réponse !

    "Je crois sincèrement que les sites travaillés par les référenceurs sont généralement très pertinents par rapport à la requête de l’internaute."

    Mais pourquoi ?
    C'est là où nous ne sommes pas d'accord : ça voudrait dire que les sites que travaillent les référenceurs sont intrinsèquement meilleurs que les autres (que les autres référenceurs des concurrents ?). Or, sur le principe, et comme tout prestataire, vous ne choisissez pas vos clients (je dis bien sur le principe, j'imagine qu'il y a quand même quelques exceptions :)). Vous les prenez tels quel, alors je suis comme toi convaincu que les référenceurs améliorent la pertinence du site par rapport à la requête de l'internaute, mais en quoi le site que tu vas travailler est meilleur que celui d'un concurrent ?

    Ce que je veux dire, c'est que souvent, les SERP ne sont pas "justes" par rapport à la requête de l'internaute, dans le sens où les meilleurs résultats dépendent plus des compétences du référenceur que de la pertinence réelle du site travaillé. Ce qui est logique : le but du référenceur est de faire scorer autant que possible son client, peu importe qu'il soit plus mauvais ou moins pertinent que son concurrent.

    (Ce n'est pas très clair, j'espère que tu comprends ce que je veux dire.)

    Je ne dis pas que ce soit tout le temps le cas : on a souvent de bons sites pertinents qui sont aussi très bien référencés. Et quand c'est le cas, tant mieux !
    Mais souvent, je me dis que c'est injuste quand je vois certains sites sortent devant uniquement parce qu'ils sont bien optimisés, alors qu'ils sont largement moins pertinents que certains qui arrivent derrière (mais qui moins bien optimisés parce qu'ils n'ont pas les ressources d'un BH).
    Les fortunes que se font certains sans une grande contrepartie en sont une belle illustration. Pour ceux là, je me dis qu'ils en ont assez profité :).

    Bref, je suis d'accord avec toi sur la pertinence des requêtes que travaillent les SEO, mais le problème c'est que ça manque parfois un peu de "justice", de mon point de vue en tout cas. Ce qui est sûr, c'est que les sites de CP n'ont vraiment aucun intérêt pour l'utilisateur, c'est donc logique qu'ils soient pénalisés.

  43. Sylvain Richard - AxeNet Auteur de l’article

    @ Sebastien
    Au delà de la mentalité, c'est l'objectif qui reste le même, ranker. J'aime bien ta comparaison avec la finance, mais le pouvoir est quand même du côté de Google qui peut faire la pluie et le beau temps comme bon lui semble. Alors bien sûr, les BH s'adapteront comme ils ont toujours su le faire, cesera juste un peu plus compliqué au fil du temps de refiler de la très mauvaise came à Google.

    @ Romaric
    Quand tu dis «chercher la validation du public » je crois que c'est effectivement une bonne piste.

    @ Olivier
    Il semble quand même que le negative SEO soit plus facile avec ce nouveau filtre...

    @ Phil
    L'audit simple de base pour un cp est : ranke t-il sur son nom ? Ranke t-il sur les titres des articles qu'il héberge.

    @ Revolution
    Un réseau, propre ou pas, ça laisse des traces et c'est sanctionné. Donc même propre, mieux vaut le cacher le mieux possible.

    @ Antonin
    Ton idée est bonne, comme l'échange de pages déjà pratiqué  depuis longtemps, mais aussi consommateur de temps que l'échange de liens.

    @ Bruno
    Je te ferais la même réponse qu'à Phil

    @ Soul
    Tu as raison, une machine ne peut pas réellement comprendre un texte. Mais 5 ancres optimisées dans un texte de 400 mots et répété 100 fois, ça devient quand même bien visible et sent la manipulation à plein nez.

    Rester sous le radar, signifie donner le change pour que même un humain conserve un doute s'il analyse une page, en ses disant « Suis-je certain à 100% d'une volonté de manipulation ». Si le doute subsiste, c'est gagné.

    @ Sebastien Sabbattini
    Je ne dis pas nécessairement qu'il faille rentrer dans le rang, je dis qu'il est quand même préférable d'intégrer le SEO dans une logique plus globale de webmarketing.
    Un référenceur sera forcément limité à terme en travaillant pour un client qui ne fait jamais rien.
    Je pense aussi que les BH s'adapteront (les bons du moins).

    Concernant les réseaux, ce que dit Antnin et que tu approuves est sans doute une piste en effet.

    @ Labisse
    J'avoue que je vois aussi certaines bizarreries.Je ne sais pas si cela va s'améliorer durant les prochaines semaines.

    @ Laurent
    C'est vrai, Google est encore et sera forcément toujours à la bourre, c'est le principe du SEO qui veut cela, mais il vient quand même de faire tomber pas mal de trucs totalement montés de toutes pièces... avec les dommages collatéraux que tu dénonces en effet...

    @ Le juge
    Forcément dans une solution algorithmique, on est loin de la précision chirurgicale. J'espère que, comme tu le dis, ceux qui sont tombés sans raison s'en relèveront.

  44. phatsarr

    Je pense qu si tout le monde était White, Matt Cutt Serait aujourd'hui au chômage. Mais nous devons aussi faire le maximum possible afin de fournir à Google de la qualité. Sinon, les updates vont se poursuivre et ce sont les plateformes de netlinking qui seront les vrais perdants.

  45. Sylvain Richard - AxeNet Auteur de l’article

    @ Matthieu
    Oui, j'ai compris 🙂
    Mais est-ce plus juste lorsque c'est google qui fait le tri ? Si aucun seo ne faisait quoi que ce soit, ce serait la chance qui départagerait. Celui qui utiliserait un CMS mieux foutu serait avantagé, celui qui en comprendrait mieux le fonctionnement serait avantagé, etc.
    Quelle que soit le mode de tri, ce ne serait jamais très juste.

  46. steph

    @sylvain: il y a de la pertinence pour la requête casino en ligne et la cci ou l'arcep.
    Les sites ont été piratés et font du cloaking.
    La preuve, tapes sur google : site:www.arcep.fr "casino"

  47. Carter

    Je n'ai jamais utilisé de BlackHat, sauf par inadvertance comme cela arrive à beaucoup de monde.
    En revanche, je n'utilise pas les CP, j'évite ça malgré le succès que cela a eu auprès des référenceurs.

    Malgré tout, depuis l'arrivée de Panda 3.5 ou de Penguin, j'ai perdu près de 4 pages dans les SERP sur la quasi totalité des requêtes que j'ai travaillé. J'avoue ne pas trop comprendre car mes autres sites avec lesquels j'emploie les mêmes méthodes ne semblent pas touchés... Vive les effets collatéraux ! :S

  48. PH

    Pour l'ARCEP c'est normal ils se sont fait blasté sur "casino", "keno", "casino en ligne", "nouveau casino" etc ... sur du splog tout pourri.

    Un petit coup de Rankpanel et un Majestic Seo fresh index sur les bonnes url et tu aura résolu ton énigme

    ++

  49. référencement grenoble

    là ou matt cutts n'a pas tort, c'est que c'est la véritable popularité d'un site et son rayonnement qui devraient faire son référencement, je pense que c'est ce qu'il cherche dans l'absolu. et pas la popularité artificiellement gonflée.

  50. v

    J'aime bien l'idée qui dit qu'une bonne stratégie webmarketing est surement ce qu'il reste de mieux à faire. Un article intéressant et de qualité sera forcément retweeté, partagé, liké, piné (un peu border line ce dernier^^). Bref, finalement ce nouvel algo est juste une suite logique de Panda.

  51. kris

    J'avoue que je n'ai pas compris cet "effet Pingouin"...

    Je travaille sur 5 sites en même temps, de la même manière pour chacun et il n'y en a qu'un qui se retrouve projeté au fin fond des pages GG alors que j'avais l'impression de faire du linking plutôt white...

    C'est étrange, est ce que c'est arrivé à quelqu'un aussi? Comment l'expliquer ?

  52. patrick

    La naïveté des détenteurs de plateformes de netlinking à causé tout ça selon moi. J'imagine mal un site de CP à validation automatique. Le seul but de ce site de CP est de récolter quelques Euros par Adsense, mais n'est nullement pour apporter au web un contenu de qualité. Conséquence: l'importance des liens venants des sites de CP sont remis en question.

  53. Ilyass

    Si google cherche vraiment à être si pertinent, il devrait changer ses robots par des êtres humains, ce qui parait impossible, peut être que ça va devenir de plus en plus dur de se faire sa place dans le web, mais il y aurait toujours un moyen de les contourner qu'ils le veuillent ou pas !

  54. Nicolas

    Alors, petite réaction car comme d'habitude, je me suis pris une pénoul mais pour un seul de mes sites, celui que je travaillais comme un forcené bien évidemment.

    Tout d'abord, je trouve excitant ce genre de remise à plat complet du SEO et du netlnking, mais encore une fois c'es très hypocrite comme filtre et très incomplet.

    Les WH pur sauce qui font du linkbaiting leur cheval de bataille (un peu les SEO branlette) en sont sortie grandit...Ceux qui fesait du pur BH (SEO automate) en sont sortit grandit !

    Les claques ont été à ceux qui tentaient tant bien que mal de glaner des liens de si de là et également des échanges de liens bien fait et bien recherché...

    Bref, Pengouin, j'espère t'avoir comprit, tu ne me tueras pas !

  55. Aline

    Salut,
    Mon verdict sera la même que le Juge un peu plus haut, on le voyait venir gros comme une maison, on a même été gentiment prévenu, bon voilà, maintenant c'est fait c'est fait, faut passer à autre chose, si le chat a mangé quelques souris, les souris arrivent à se reproduire très vite 😉

  56. Fabien

    Ce qui me fait peur c'est quand tu dis que ça va couter de plus en plus cher. Encore une fois on a l'impression que ce sont les plus gros qui s'en sortiront... Bon, ok... On est au XXIème siècle et il faut se faire à l'idée.

    En ce qui me concerne, je suis tout petit, j'ai pas de budget et j'essaie d'améliorer le classement de mon site avec mes petits doigts en rédigeant des CP un par un. J'ai tout faux ou pas ?

  57. Mathilde

    Bonjour,

    Merci pour cette bel analyse. Je suis d'accord avec toi et je comprends la position de Google bien que cela soit toujours à nous de nous débrouiller par la suite. Maintenant c'est en place et on peut rien y faire. Il faut trouver de nouvelles solutions pour repartir de bon pied ^^

  58. Keeg

    Le curseur s'est simplement déplacé, et pour tout le monde. Si je caricature, les SEO propres ne savent plus quoi faire maintenant qu'ils doutent du CP, les autres se disent qu'ils vont être obligé de faire du CP...

    C'est uniquement de l'adaptation à cette fameuse ligne rouge. Pas mal de sites sont de fait passés au dessus, et cela pose de redoutables questions, au delà du référencement de son site. Je pense qu'on va possiblement en reparler fortement d'ici quelques bons mois.

  59. Jean-Christophe

    Que dire sur cet article. Tout d'abord, qu'il résume plutôt bien la situation. Même si mon expérience dans le référencement n'est pas aussi importante que la tienne, sur les trois dernières années, j'en ai vu passer des mises à jour et des filtres de Google pour tenter de "décourager" les black hat.

    Pour ma part, je préfère également miser sur des stratégies à long terme plutôt que de vouloir monter trop vite dans les SERP. Je n'ai d'ailleurs que très peu utilisé les CP. Je n'ai donc pas ressenti d'impact particulier sur les sites dont je m'occupe.

    Au final, nous en revenons toujours au même. De l'optimisation on-site et du linking tout en essayant de rendre cela naturel. Le seul changement est qu'il est de plus en plus long de faire ce travail. Je te rejoins donc sur le fait que le coût d'un tel travail ne peut qu'augmenter. Le tout est de faire avaler la pilule au client, surtout les petites structures qui, comme tu le dis, n'ont pas forcément des budgets très important.

  60. Décorateur d'intérieur

    J'ai récemment rédigé un CP (sur un site que j'ai toujours jugé pertinent) au sujet d'une activité que mon entreprise propose depuis peu. Quelques heures après avoir rédigé le CP, ma page c'est retrouvé en 5eme position d'une requête très interessante. Aujourd'hui (deux semaines plus tard), ma page a disparu de la première page et se retrouve encore plus mal positionné qu'à l'origine. J'ai donc supprimé le CP. À voir…

  61. justfindnow

    "Il faut pouvoir les alimenter, les héberger sur des hôtes différents, avec des Whois différents ou anonymes."

    Je croyais justement que google était devenu registar pour ne pas avoir à se soucier des Whois anonymes et pouvoir remonter aux propriétaire quoiqu'il en soit, je suis à coté de la plaque ?

    Quand vous parler de Whois différents, vous voulez parler de création d'identité ?

    Merci de vos réponses.

  62. Mickael

    Sylvain,

    Quel est ton avis sur le fait que la dernière mise à jour de google "pingouin" aurait touché (en partie) les NDD contenant des mots clés sur les résultats de ces mots clés justement ?

  63. Ragecomic

    Le black hat est peut être une chose intéressant si on cherche à faire une arnaque temporaire mais à partir du moment où on à un projet sérieux, vaut mieux pas tenter de faire ce genre de conneries au risque de tout faire couler son business pour avoir tenté le feu

  64. TiPi Com and Web

    @Décorateur d'intérieur : il n'y a que moi qui aime parler à quelqu'un et pas quelque chose ? Un BL est un BL dirait le juge mais certains sont quand même plus aisés à obtenir quand on joue le jeu et qu'on est un minimum intelligent dans sa communication...
    Pour en revenir à ton CP et ta requête concurrentielle, il faut travailler le référencement sur le long terme. Un CP et puis s'en va ne suffira pas à placer une page en bonne position de façon durable mais je ne suis qu'un apprenti SEO 🙂

    Pour résumer le billet qui sent bon le poisson (ou l'Axe, c'est selon), je dirai simplement que Google n'a probablement pas envie d'être le pingouin de farce. Et on le comprend ! Plus d'éthique, moins de tics et le monde du web sera plus beau. Ou pas.
    C'est selon.

  65. William

    Alors que ce n'était pas un article sur ce sujet à la base, je vois fleurir dans les commentaires des remarques à propos des CPs comme si ils étaient aussi blackhat que du e-whoring. j'ai envie de dire stop !

    Je les ai souvent utilisé et poussés, mais avec parcimonie, sans bourriner les ancres, en mettant un lien au lieu de deux ou 3, j'ai rajouté un lien nofollow ou un vers wikipedia... J'ai aussi bien choisi mes plateformes.

    Et pour le moment aucune pénalité recensée

    Et d'accord avec la teneur de l'article, la gourmandise et le pire ennemi du référencement.

  66. jean-luc

    J'ai du mal à comprendre comment Google peut laisser passer des centaines de milliers de liens directs vers un site sans se poser de questions.
    Bon, j'ai quand même l'impression que ceux qui bossent proprement s'en sortent plus ou moins sans trop d'égratignure (et leurs clients aussi par la même occasion et c'est ce qui compte finalement), c'est rassurant.

  67. Tom

    C'est un peu tout le temps la même chose, GG se fache tout rouge tous les ans, au début il n'était pas heureux des textes cachés, maintenant il s'attaque à la suroptimisation on et off site... un profil de liens naturel, c'est un profil où la plupart des liens sont du type 'url' ou 'nom du site' ou 'cliquez-là'. J'ai été la première fois été sensibilisé par cette notion par un BH à chapeau de Chambéry, ça se confirme, cf le dernier article que j'ai twitté sur le Penguin, une étude très intéressante sur les profils de liens des sites impactés ou non.

  68. Matthieu

    En effet, les démarches marketing vont prendre le pas sur les techniques faciles qui marchaient jusqu'alors mais qui fonctionneront de moins en moins. Il va falloir varier au maximum ses ancres, euh non ses efforts à trouver des sources de liens et des sources de trafic complémentaires.
    Donc oui, le SEO va devenir de plus en plus cher, c'est le ROI des clients qui va en prendre un coup...

  69. vince

    "sale" ? hum, moi j'aime bien quand quand ça sent un peu la chaussette...

  70. Romain

    Je crois que certains d'entre nous oublient une chose lorsqu'il référence un site : le but premier est d'augmenter le traffic du site web. A quoi bon faire trop de BH, si c'est pour voir le taux de rebond du site exploser ? D'ailleurs cela pourrait même avoir un côté négatif pour le SEO...
    Je partage entièrement t'as vision, je pense qu'il faut savoir trouvé un juste milieu qui correspond au site que l'on veut référencer. Certes il faut utiliser les moyens de facilités que l'on a à notre disposition mais je pense qu'il faudra de plus en plus se tourner vers un WH qui permet en plus d'acquérir des visiteurs qualifiés.

  71. alex

    Google c'est un peu comme le policier du net qui veille sur la propreté des sites et qui n'hésite pas à remettre certains référenceurs sur les rails. C'est normal je trouve quand on ne respecte pas la loi on doit être sanctionner.Je crois aussi que c'est une bonne chose qui poussera les professionnels du SEO à bien bosser et fournir un travail de netlinking de qualité puisqu'il y va de notre avenir.

  72. axel

    Zut, au moment ou je pensais avoir bien trouvé les process pour faire vite et bien lol
    Blague à part, le peu de BH que je connais ça a toujours évité les liens crades directement vers le site principal non? Qu'est-ce qui change exactement aujourd'hui?
    Il serait intéressant d'avoir un retour de BH sur le sujet.

  73. Nicolas Nguyen

    Le black hat s'est démocratisé, c'est presque devenu une partie 'normale' du SEO.
    Google fait en sorte que le black hat redevienne une technique de niche. Ils sont sur la bonne voie.
    Dans tous les cas, Google ne pourra pas tuer le BH, dès lors qu'un process de référencement est définissable. Cependant, cela demandera plus de moyens à mettre en place :). (tant mieux).

  74. Matthieu

    Très bon point de vue qui rappelle à quel point google nous mène à la baguette sur les directives à venir. J'en viens même à douter d'une possibilité de {duper|manipuler} le moteur dans quelques années : il semble prendre en compte le comportement des internautes via chrome et analytics et privilégier les réactions "humaines" pour qualifier le bon du mauvais... ce qui paraît difficile (€€) à mettre en place de manière artificielle. Tout cela rejoint la politique du moteur en quête d'une meilleure expérience utilisateur et d'un web meilleur tout simplement. La baseline "Don't be evil" me semble prendre de plus en plus de poids. Il est cependant regrettable qu'une telle dictature se profile, car en insufflant sa vision, Google envoi des milliers de référenceurs moyens dans la même direction, ce qui a (à mon sens) des effets pervers à court et moyens termes sur la qualité des contenus et ce qui accélère la machine à sanction (on a vu la fin de l'aire annuaire, on assiste à la chute du CP et on en verra d'autres...)

  75. immobilier antibes juan les pins

    La fessée, on vient de la prendre et on attend de savoir combien de temps on va être puni.
    Que faire? On peut penser que GG voit tout, entend tout et même vient voir par ici, ce qui s'y passe.Alors, certains commencent le NSEO, d'autres font le dos rond..Combien de temps cela va durer?

  76. Sarah from

    Le blackhat à des conséquences néfastes sur le site donc il faut faire attention parce que quand google passe à l'action ça va être vraiment grave et je suis sure que le fameux pingouin sera suivi de beaucoup d'animaux qui changeront les techniques de beaucoup de SEO.
    Enfin merci pour cet article vraiment enrichissant

  77. Maxime

    C'est tout à fait normal qu'il soit de plus en plus dur de référencer. Mais je crois que l'on a encore de la marge devant nous avant d'être vraiment désarmés, et que seul le marketing classique ne règne ! Plus ça va, plus Google affine son algo. Mais plus d'un autre côté, le contenu présent sur le web explose, et les failles au système se dévoilent...

  78. Olivia

    Les référenceurs se mefient de google et des signaux qui empechent de faire n'importequoi et c'est surement une bonne chose dans la mesure ou faire n'importequoi finit par etre reperé : on le sait tous . comme vous le dites, la prochaine etape sera l'autorité des liens... et cela sera encore pire qu'avant... car un bon lien se payera encore plus cher, il faudra directement demander a chuck norris de faire un lien sur notre site...pour avoir une chance que google prenne en compte notre lien...

  79. offre de stage

    J'ai envie de dire tant mieux, et que les blast et BL à la pelle s'arrête, c'est n'importe quoi, ce n'est pas qualitatif et GG devrait (et c'est ce qui est en cours ) sanctionner très fermement ce genre de pratique, faire tomber les sites de réf nat qui continue à utiliser ces pratiques barbares !

  80. Mist. GraphX

    Bonjour,

    Je suis webmaster, plutôt que référenceur pro, et je profite de ce sujet qui m'a fortement intéressé car bien souvent les sites sur lesquels je travaille sont VICTIMES de certaines pratiques, qui nuisent fortement a l'image de votre travail de référenceur, ainsi qu'au clients finaux référencés. Depuis par exemple une semaine un des sites culturel ayant un bon pageRank est spammé dans les forums pour du pari en ligne, par une entreprise peu scrupuleuse : [censuré par AxeNet : désolé, je comprends, mais il n'est pas légal de diffamer, même si ça démange quand c'est justifié] , que je qualifierais d"escrocs du web. Je travail donc actuellement sur leur référencement et je vais m'atteler à leur faire une première place sur Google sur le thème ESCROCS DU WEB ! l'adresse ip est toujours la même, aucun hébergeur mentionné, ni aucun responsable éditorial, bref en complète contradiction avec la loi française. Hormis les attaques sur leur serveur qui vont êtres organisées, je pense qu'un action solidaire contre ce type "d'entreprises", qui nuisent aux entrepreneur du web que nous sommes serait beaucoup plus efficace : donc si vous avec un blog ou un endroit ou déposer une page je vous remercie d'avance de participer a ce Jeux de référencement naturel efficace, démontrant ainsi la puissance des mots plutôt que du Spam.
    Happy Coding à tous !

  81. Mist. GraphX

    😉 Je comprends pour la censure ! Néanmoins je ne comprendrais jamais ces techniques de lâches et de feignants illettrés (oui, vu les fautes et le site) qui sont incapables de produire un contenu de qualité capable de pérenniser leur référencement, techniques qui pour moi sont justes bonnes à augmenter leur taux de rebond !!

    Être le premier sur google c'est bien, mais encore faut il que ça serve à quelque chose.

    Autre preuve de nullité avancé et d'un manque de compétence certain : utiliser la même IP et qui plus est celle du serveur du site !!!
    1/ utilisez Thor pour spammer à la main
    2/ utilisez un vpn si vous spammez avec un bot
    3/ ne rajoutez pas du travail inutile à un webHamster surchargé de boulot ça le met de mauvaise humeur et l'incite à mordre 😉

    Merci pour vos articles en tous cas, j'en apprends tous les jours

  82. Linda from

    Je trouve cet article très utile , c’est vrai il’ y a des techniques SEO à éviter comme le bourrage des mots clés et la duplication du contenu qui peuvent engendrer des pertes de positions et le Blackhat peut être dangereux car le fait d'acquérir des milliers de backlinks via des méthodes blackhat peut engendrer des conséquences néfastes sur le site donc il faut faire très attention.

  83. selin from

    Bonjour,
    Tout a fait d'accord avec vous Linda le bourrage des mots clés et la duplication du contenu peuvent engendrer des pertes de positions il ne faut pas aussi oublier de diversifier les sources des liens pour garder un réseau naturel et varié surtout après le pingouin car le fait d'acquérir des milliers de backlinks via des méthodes blackhat peut engendrer des conséquences néfastes sur le site donc il faut faire très attention et il faut aussi choisir des liens de qualité car un lien provenant d’une source crédible transférera de la crédibilité à la page liée et il ne faut pas oublier aussi de commenter sur des blogs en Nowfollow pour favoriser la variété des sources de backlinks. Merci pour cet article 🙂

  84. Olier

    Merci ! çà redonne un peu de coeur à l'ouvrage, devant la multiplication des billets prédisant la mort du seo.

  85. Antoine

    Je suis franchement d'accord avec le contenu de l'article et de mon côté j'essaie d'appliquer cela pour mon site professionnel, sauf que j'ai eu cette année un bien mauvaise surprise.

    Un de mes concurrents dont le site ne contient aucun backlink et dont le texte n'est pas très soigné a utilisé une vingtaine de vignettes publicitaires situées en bas de sa page d'accueil, y a changé les balises alt et title en y insérant les principaux mots-clé de l'activité, et cette opération lui a permis de passer devant moi.
    Je sais que la densité des mots-clés n'est pas toujours reconnue comme un facteur de bon référencement, mais en l'occurrence, sa densité sur les mots-clés a grimpé à 13-14% (merci le page analyzer de Ranks NL) et il est passé devant moi durant tout l'exercice 2011-2012.

    La vapeur vient juste de s'inverser et je repasse devant pour les principales requêtes depuis un mois environ, mais :
    1. Je l'ai eu mauvaise.
    2. Je me suis demandé, avant de me raviser, si je n'allais rentrer dans ce genre de jeu, simplement pour pouvoir maintenir un niveau de clientèle suffisant grâce à mon site web.
    Je constate aujourd'hui qu'avec des pratiques franchement contestables, cette personne se maintient en deuxième position sur l'activité dans ma ville, et pour le moment, les robots de Google n'y peuvent pas grand chose.

  86. Rodrigue

    Je favorise le netlinking de façon naturelle, c'est complètement plus long bien entendu, mais j'ai pas mal de résultat avec le temps... Alors soi mes concurrents se font virer dans la sandbox, soi c'est mon travail qui porte ses fruits.

    Le réf par google, pour moi, c'est comme un visiteurs, qui visite un site pertinent, et qui dans les com', trouve une infos intéressante qui le pousse à cliquer sur l'ancre, c'est que le lien est bien placé, idem pour les annuaires, la qualité doit être de mise, sinon ton lien n'aura aucun impact... Je me trompe peu être, mais sur et pour la longueur, je préconise un réf manuel.

    Pour le reste, passer du grey au Black importe peu, puisque ce sera temporaire.

  87. idn only

    Le Blackhat est très efficace mais il ne faut pas oublier qu'il peut s'averer etre très dangereux Avoir des centaines voir des milliers de backlinks en utilisant les méthodes blackhat c'est efficace quand ca passe, mais quand google fait le ménage c'est pas du tout facile. Donc je pense qu'il faut plutot adopter la methode white hat ou alors acepter de prendre des risques et encaisser si jamais on se fait prendre.

  88. Enzo

    C'est vrai qu'il ne faut pas prendre les ingénieurs de Google pour des billes payés à rien faire. Google a voulu dégager les communiqués de presse c'est plutôt réussi. C'est vrai qu'ils ne sont pas tous tombés mais en y réfléchissant les CP étaient tout sauf naturels.

    Peut-être qu' on verra des CP Post - Penguin qui limitent les pros dans l'optimisation (pas trop liens, pas trop d'optimisation dans lien etc). Tout est question de mesure. Sinon j'ai trouvé une étude intéressante sur Google Penguin, apparemment Google Penguin fait sauté le PR des sites qui sont frappés par la mise à jour.

Partagez sur :

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *