Optimisation SEO, machine arrière toute ? Ou pas ?

SEO et nouvelles optimisations

Le filtre « Pingouin » a semé la panique dernièrement parmi les referenceurs. La suroptimisation des contenus et du linking sont visiblement de moins en moins appréciés par notre ami Google.

Si la confusion règne un peu du fait de la proximité de l'application des filtres Panda et Pingouin fin avril, les tendances générales laissent entendre que le contenu et le linking auxquels les SEO s'étaient habitués devront être pratiqués un peu différemment.

Un filtre anti bourrin

Plus google fait évoluer son algorithme et ses couches multiples de filtres, plus le corridor des possibilités Se resserre pour les SEO pratiquant un travail « à la louche » (je ne vise personne. Dans la vie d'un site, le SEO au scalpel et celui à la louche peuvent très bien être pratiqués en fonction de sa maturité).

Le constat que je fais aujourd'hui est qu'un site très jeune, au contenu très optimisé et au linking très agressif (ancres de liens truffées de mots-clés récurrents) à de moins en moins de chance de sortir son épingle du jeu.

Quelles stratégies SEO adopter pour lancer un site ?

La nature du projet impactera les choix initiaux. Tout comme le budget associé au lancement.
Certains projets permettront de lancer conjointement plusieurs mini sites, d'autres se verront plus facilement adjoindre un blog.

Dans tous les cas, ces outils connexes permettront de posséder des ressources supplémentaires que l'on maitrise intégralement. Elles serviront bien évidemment à lier le site principal (à petites doses), mais seront aussi des supports très utiles pour des échanges de liens.

Selon moi, ces échanges de liens tellement naturels il y a 10 ans ont tellement été galvaudés que je pense très important de les remettre au goût du jour en les pratiquant intelligemment dans un registre A->B C->D (c'est à dire sans réciprocité flagrante). Dans le cas contraire, l'écart de dates dans l'échange est aussi une bonne solution potentielle pour « noyer le poisson ».

Quoi qu'il en soit, je privilégie l'accord de thématiques entre les sites liés (vous pouvez mettre directement à la poubelle les mails d'échange d'un site de serrurier contre le votre de piscines gonflables)

Mais pour mon contenu et mon linking, quelles options choisir ?

Optimisation du contenu

Le premier point sur lequel lever le pied est sans doute l'optimisation à outrance du contenu.
Quoi que l'on en dise, le simili keyword stuffing fonctionnait encore pas mal récemment... mais GG l'apprécie de moins en moins.

Dorénavant pour un nouveau site, je conseillerai encore plus d'optimiser chaque page sans exagération

  • Un title optimisé (mais sans répétition exagérée d'un mot-clé)
  • Hn comportant éventuellement l'expression-clé, mais « noyée » dans un texte plus long ou mieux en la remplaçant par un synonyme.
  • Expression-clé exacte dans le premier paragraphe (mais sans la réutiliser intégralement ailleurs dans la page)
  • Utilisation intelligente de synonymes et mots clés connexes permettant de thématiser la page.

En résumé : levez le pied sur le bourrinage habituel. Même s'il passait très bien à la lecture, car les utilisateurs scannent plus qu'ils ne lisent, il n'est plus du tout apprécié de Google.

Je pense aussi que plus le linking qui suivra le lancement sera agressif, moins l'optimisation onpage devra être forte.

Optimisation du linking

C'est sans doute là qu'il faudra le plus perdre certaines habitudes et en prendre de nouvelles.

Avoir 70 à 90% des ancres vers une page faites à partir de la même expression sent le SEO à plein nez. Google commence à détester cela. Voyons ensemble comment diluer intelligemment.

  • Vers des pages correctement optimisées, un lien sur l'URL suffira souvent. De même pour des pages vers lesquels on souhaite simplement envoyer du « jus » sans forcément avoir besoin de transmettre la valeur de l'ancre.

Un exemple avec ce lien :
http://hey.doyoulinkme.com/histoire-96-mon-blog-j-y-parle-surtout-de-bijoux.html

J'envoie de cette manière du jus vers une page sans transmettre réellement d'ancre. Cela n'est pas vraiment capital, car je ne cherche pas à la positionner, mais juste à lui donner du poids.

  • Nous savons aussi que Google analyse les mots situés autour d'un lien pour le « qualifier ».

Je vais donc pouvoir utiliser des ancres non optimisées en conservant malgré tout une part de sémantique pour mon lien.

Quelques exemples :

Pour acheter un canapé cliquez ici, ils ne sont pas cher, faites des économies.
Ou bien
Les canapés cuir disponibles ici, sont en 2 ou 3 places selon vos besoins.

Je n'ai pas utilisé d'ancre optimisée, mais mes liens ne sont pas pour autant totalement « nus » en terme de sémantique( je pense que vous aurez deviné sur quels termes je veux influencer Google).

  • Quand je fais un lien vers une page d'accueil (celle-ci est très souvent déjà largement optimisée en interne), je vais pouvoir diluer en faisant mon lien directement sur le nom de domaine, par exemple :

Visitez www.scpi-8.com pour mieux investir
Ou bien
Consultez http://www.logementdirect.fr pour trouver le bon plan immobilier.

Ces liens semblent en effet bien plus naturels que s'ils étaient faits sur les expressions exactes « scpi » ou « bon plan immobilier ».

Dans tous les cas présentés, l'objectif est de rendre votre profil d'ancre de liens le plus naturel possible sans pour cela y perdre de trop en terme de qualification de vos liens.

Bon, c'est certain, ils auraient été bien mieux placés dans une page thématisée...

Attention, je ne dis pas de tout désoptimiser. Conservez environ 20 à 30% d'ancres optimisées quand même !

En résumé

Être « moins bourrin » ne veut pas dire de tout laisser tomber, mais plutôt d'y aller plus en finesse.
La difficulté réside dans le fait que d'une thématique à l'autre et en fonction de la concurrence en place, Google ne situe pas le taquet au même niveau.

Pour ce qui est des liens nofollow, personnellement, je ne perds pas de temps dessus, sauf s'ils viennent de sites très trustés, ou bien de pages pouvant me permettre d'acquérir du trafic.

Allez, c'est parti pour faire dans la dentelle (mais avec de vieux sites bien installés, vous pourrez continuer comme un gros lourd...rhâââ, ça fait du bien).

Vous avez d'autres idées ? Faites nous-en part !

Notez cet article

Partager sur Facebook
Partager sur Twitter Plein
Partager sur linkedin
Partager sur Google+

116 réflexions au sujet de « Optimisation SEO, machine arrière toute ? Ou pas ? »

  1. Clement

    Je pense pas qu'il faut tout désoptimiser comme certains dises mais au moins il faut allégé peut être un peut les densité de mot-clés et comme vous le dîtes levé un peut le pied... et faire des ancres plus varier etc..

  2. Sébastien

    Je crois que c'était dans un des comtpe-rendu d'une conférence du SMX de l'an dernier (ou était-ce de Toulouse?) que j'avais vu une analyse des backlinks "naturels" (donc de sites qui n'ont pas fait attention au SEO) et on se rendait compte que plus de la moitié des liens avec une ancre qui était une url.
    On est toujours sur la tangente : obtenir le plus possible mais ne pas dépasser la limite.

    Enfin, le fait de faire des liens avec des url rapporte toujours du jus et ensuite, de bons liens internes le transforme si nécessaire. Reste à trouver un bon équilibre, ce qui s'annonce difficile pour tout le monde.

  3. lereferenceur

    Je suis tout à fait d'accord avec toi mais j'ai une question concernant les chiffres.
    Tu annonce 20 à 30% d'ancres optimisées. Arobasenet en annonce 50%. Tu fais exprès de baisser ce chiffre pour être sur de ne pas être pénalisé? Etude faite de ton côté avec les sites pénalisés? Etudes lues sur le net ? D'où viennent ces chiffres ?

    PS : je commence à desoptimiser mes ancres même sur les commentaires de blogs ^^

  4. Romaric

    Merci Sylvain pour cet article.
    Il est tout à fait intéressant de développer selon les projets web des mini sites qui viendront appuyer le site principal. Mais cela devient encore plus complexe de faire accepter le coût aux clients. Sans compter que le temps de travail du SEO sera difficilement égal sur ce genre de prestation.
    Il y a tout de même quelque chose qui me chagrine dans cette nouvelle politique de Google, nous obliger à diminuer le nombre d'ancres optimisées, ce qui veut dire aussi selon les thématiques, augmenter considérablement le nombre de liens pour obtenir un positionnement intéressant. L'objectif de Google n'est il pas de diminuer le nombre de pages inintéressantes pour les internautes et diminuer leurs coûts, ces pages demandent des ressources importantes en serveurs ? Si là où nous avions besoin de 70% d'ancres optimisées nous devons réduire ce chiffre à 30% du nombre total de liens, ça risque d'être passionnant sur les thématiques fortes du web...

  5. miu

    Le référencement naturel n'a jamais aussi bien porté son nom. Il y a encore quelques mois, cela faisait marrer certains que l'on puisse associer le mot référencement et le mot naturel. Nous y sommes maintenant plus jamais. Le plus difficile, je pense, va être de trouver la bonne dose en ne dépassant pas un certain pourcentage, comme par exemple, 50% de liens avec ancres, pas plus de 30% d'un même type de lien (CP, annuaires, Digg, Forums,...), 80% de dofollow, etc.

  6. GammaSeoTools

    hello Sylvain,je constate que si on est white hat,on n'apprends rien de nouveau dans ce que tu dis,mais pour le seo débutant et dieu sait combien qui sont arrivés dans les 2 dernières années,c'est une bonne piqure de rappel.

    j'ai l'impression que Google se fout un peu des seo avec leurs appellations rigolotes n'est ce pas?

    Je pense que nouer des relations entre webmaster est essentiel pour le linking, et que l'on se rapprochera un peu plus de la méthode anglo saxonne pout faire du SEO.

    Malgré ton avertissement sur les ancres, je ne peux m'empecher d'y glisser une ancre optimisée...tu vois même moi j'ai encore des mauvaises habitudes.

  7. Mat

    Oui ça ressemble à une " machine arrière toute". Avec Pinguin des sites sorties de nulle part
    non optimisés se retrouvent propulsés dans les classements sur certaines requêtes. C'est bien qu'il va sérieusement falloir lever le pieds sur l'optimisation.
    Quand je lis ton post, je me dis qu'on va pouvoir brûler un bon paquet de livres sur le référencement et supprimer des posts sur les Blog SEO : comment ? ne pas optimiser une ancre ? ne pas jouer sur la densité de mots clefs ? Si on nous avais dis cela il y a 2 ans !

  8. Nico

    Analyse très pertinente et très bonnes recommandations ! En effet il va falloir revoir sa stratégie referencement. Thématisée a mort et revoir ca stratégies de netlinking. Y a un peu de boulot. Je suis impatient que pingouin repasse voir nos sites 😉

  9. Jérémy

    T'as tout résumé ! Y Pu Qu'a ! Pour ce qui est de la sémantique, j'évite le plus possible les plateforme de rédac. car c'est une chose qu'ils ont du mal à comprendre ^^, t'es obligé de repenser le texte un minimum avant publication.

    On va devoir faire du VSO (Visitor Site Optimisation) ^^

    Il va falloir débusquer les critères qui rapportent encore pas trop mal.

  10. aldo Dell'utri

    bonjour en effet je comprend cette nouveauté mais pas en totalité ... pour ma part j'ai ete declassé sur un MC primordial et en plus GG a decide de changer le page avant c'etait la home aujourdhui c'est une page profonde en plus depuis 3 semaines cette page change regulièrement comme ci GG n'arrivais pas à faire un choix ???? curieux non ??

    suis preneur de tous conseils à ce sujet

  11. Maximilien

    Je suis entièrement d'accord avec ce qui a été dit. Je pense qu'il est primordial aujourd'hui pour tout site de ne pas être suroptimisé, avec des pages comportant des suites de mots clés, TITLE + H1 + H2 + strong comportant que des mots clés, et de veiller à créer des liens de qualité, depuis des sites de qualité et/ou thématiques. Pour ce qui est des liens nofollow, je ne les prend aussi que lorsqu'ils viennent de sites très trustés, comme Wikipedia ou encore des blogs très ciblés.

  12. Raph

    oooooooooooohhhhhhhhhhh punnnnnnnnnnaaaaaaaaaaaaaaaiiiiiiiissssssssseee Sylvain je t'aime !!!!!!
    désolé de te déclarer ma flamme ainsi mais pour nue fois que je trouve un billet sur lequel je suis 100% ça me rend tout chose 🙂
    Plus sérieusement, tu as entièrement raison mais là où j'esquisse un sourire (car ça m'a valu de passer au travers des filtres panda et manchot) c'est que cela fait des années que je préconises ces recommandations.
    Le but est de passer sous le radar, et pour ça il faut en montre le moins possible si je puis dire.
    Je partage ta vision du macro référencement à savoir si le site a déjà une bonne opti on page on y va mollo sur le linking et si on site très peu optimisé on peut y aller plus fort.
    bon ben je vais tweeter et retweeter ce billet;
    c'est con mais tu m'as mis de bonne humeur 😉 tu remontes dans mon estime (Private Joke)

  13. bruno

    Au final, avec tous ses changements continus, google nous amène à être le plus naturel possible (pour les lecteurs et donc pour les moteurs)

  14. Cliquez

    Je suis complètement d'accord avec cette analyse que je partage sur mon blog. La lecture des billets les plus récents des blogs SEO américains nous confirme bien que cette dés-optimisation concerne surtout les "petits" sites car Google Penguin ne touche pas les domaines plus anciens déjà positionnés.
    La contextualisation des ancres au sein de pages thématiques va donc être très primordiale dorénavant !

  15. lionel

    Bonjour Sylvain,

    Je suis en partie en phase avec tous les arguments évoqués dans ce billet. Malgré tout, je pense que Google va procéder à quelques réajustements. C'est certain, il va falloir modifier la façon de faire du SEO que ce soit sur "sur" où en "dehors" d'un site Web.

    Mes premières modifications (en rapport avec "pinguoin") se réalisent par petites touches car je ne veux pas avoir de mauvaises surprises non plus.

    amicalement

  16. PH

    Bon article & bonne méthode. Pour ma part j'aurai rajouté une couche de liens externes similaires ayant autorités.

    Tu t'embêtes un peu avec Vente Unique, ça fait une plombe qu'ils sont dans le top 5 sur "canape" ....

  17. xain

    C'est un bon résumé des différentes analyses que l'on trouve sur le web qui se complète très bien par le lien connexe sur arobasenet et l'itw de matt cutts sur le même site. Perso je me suis retrouvé dans le cas d'un boutique jeune un peu trop optimisée en interne et en liens externes. J'ai dilué les mots clés sur les tittres des produits (sur ma page savons bio, je ne vendais que des "savon bio ***"), j'ai changé quelques ancres, et je me mets de nouveaux liens désoptimisés. On verra ce qu'il adviendra..

  18. Gwaradenn

    Tu as des données concernant la désoptimisation ? Malgré mes différents tests, je n'ai rien perçu de ce côté. Par contre côté netlinking, c'est flagrant..

  19. sam

    merci Sylvain pour cet article ...
    faire de la dentelle entrainera donc sans doute un cout supplémentaire par rapport au passé ... les mêmes résultats demanderont sans doute plus de travail ....
    ayant testé je suis tout a fait d accord avec toi sur "Dorénavant pour un nouveau site, je conseillerai encore plus d’optimiser chaque page sans exagération"
    je l'ai testé... j ai aussi bien réalisé que le maillage interne et l 'arborescence bien travaillé sont très important pour assoir le contenu des pages ....

  20. Michaël

    Un linking de finesse avec une pointe d'optimisation est une parade essentielle à une éventuelle pénalité de Google.

    La sagesse dont tu fais preuve, surtout pour un site relativement jeune est à mettre en application sans attente.

    La sémantique couplée à la thématisation seront à mettre en avant pour que le site en question puisse grimper dans la SERP.

  21. olivier

    Merci pour l'article. Je pense comme toi, il ne faut pas s'affoler, çà fait des années qu'on en parle de varier les ancres au maximum, d'utiliser aussi les url comme ancre pour faire plus naturel, et de ne pas bourrer les textes de mots clés.
    @sylvain:
    -Si on fait des liens vers la home page avec l'ancre de l'url quand on a un domaine exact match, est-ce-qu'on a le beurre et l'argent du beurre (je veux dire par là est-ce-qu'on bénéficie à la fois de la présence des mots clés et du "label" lien naturel)?
    -tu penses vraiment qu'avec les vieux sites bien trustés ont peut continuer joyeusement comme avant "à la hussarde" ?

  22. tom

    Merci pour l'article !

    Ce petit filtre penguin me fait bien plaisir, c est un excellent retour de google face aux seo qui croient suroptimiser avec une pseudo densite de mots clefs ou des milliers de liens a IP differentes avec exactement le meme mot clef. Un profil de liens doit sembler naturel, et pour cela il faut utiliser des mots transparents, des urls, le nom du site, comme l'utilisateur lambda ferait s'il avait a faire un lien... Maintenant, il faut s'adapter a cette evolution, et on peut la contourner, c est toujours un bon challenge et defi, certains seo se doutaient deja de l'interet de ce profil de liens naturels, ca se confirme (cf mon article sur les techniques avancees presente par 512banque)

  23. Romain

    Il est clair que ce nouveau filtre impose aux référenceur de revoir leurs techniques tels que la création de mini-site ou de blog au lieu de miser uniquement sur les CP et annuaires.
    Il va falloir s'adapter, par contre les résultats seront-ils meilleur pour autant ? pas certains je pense

  24. rg

    je suis assez d'accord avec tom, bien content de revenir aux bases du ref, se sentir un peu plus soutenu par GG en étant WH et en faisant du travail mano naturel. ca redore un peu le blason du travail à l'ancienne et redonne confiance pour les actions à mener à l'avenir.

  25. Olivier

    Comme d'hab', intéressant et facile à lire merci à toi!

    Une question concernant les liens réciproques disons 'utiles et pertinents', entre pages profondes.
    Admettons que je fasse un échange entre deux annuaires de même thématique, ou thématique complémentaire. L'agence Axe-Net y est référencée sur chacun d'eux. Avec l'arrivée de notre ami Pingouin, penses tu qu'un échange de lien réciproque entre les deux fiches Axe-Net de chaque annuaire puisse être néfaste, ou au contraire bénéfique, ou ni l'un ni l'autre? Ce type d'échange se répéterait évidemment sur la plupart des pages communes aux deux annuaires.

    Merci^^

  26. Pierre

    Je ne suis vraiment pas sûr que l'on peut continuer à bourrin sur des sites anciens. Sur un de mes vieux sites qui était très bien positionné depuis plusieurs années sur une expression-clé et parfaitement en en accord avec la thématique (taux de rebond < 20%), j'ai été quasiment exclu des résultats. Ce site n'avait pas pour autant été suroptimisé à mon sens, et surtout il n'a pas bénéficié d'actions de linking depuis au moins 2 ans. Un petit site sans histoire en fait.

    Au contraire, j'ai un site "labo" vieux de 1 an et demi qui est assez grossièrement optimisé et qui continu de ranker sur sa thématique...

  27. Soul

    Faut arrêter AS et la génération de contenu sur pomme et y aura moins de pénalités déjà :p

    Perso je fais toujours des ancres optimisées mais je ne cible pas qu'un mot clé: http://ubersuggest.org/

    Sa me fait quand même plaisir que certains sites se soient cassé la gueule, quand y avait 100 fois le même mot clé dans la page...

  28. Sylvain Richard - AxeNet Auteur de l’article

    @ Lereferenceur
    En fait, cela fait des lustres que je diversifie au maximm mes ancres, que je les fais sur des suites de 3 à 7 mots, sur les noms de domaines, etc.
    Je t'avoue même que dans certains cas, je n'ai pas plus de 5% d'ancres « exact match », et ça ranke quand même si la page cible est correctement conçue.
    En fait, je pense que ce pourcentage peut largement varier au fil de la vie du site.
    Je crois préférable d'y aller sur des œufs au début, mais pour un site qui a déjà un bon linking, il est possible ponctuellement d'être assez bourrin.
    Désolé si ma réponse est un peu vague, mais je pense que chaque site doit être traité spécifiquement en fonction de son passé, ses spécificités, etc.

    @ Romaric
    Nous sommes d'accord, comme je le disais dans un précédent article, la visibilité sur Google (et donc sur le web) risque de devenir de plus en plus couteuse. Mais c'est partout comme ça:-)

    @ Gamma
    Je dois t'avouer que dans 90% des cas,ça me rend malade moi aussi de ne pas mettre d'ancre optimisée. Ça fait des années que j'essaie de perdre ce réflexe, c'est aussi difficile que d'essayer d'arrêter de fumer:-) Mais c'est bon pour la santé... du site.

    @ Jeremy
    En fait, je crois que sur les plateformes de redac, il faut leur donner le thème, mais pas de mots-clés. Ensuite, dans tous les cas il faut reprendre le texte, mais bon, c'est plus rapide que de partir de zéro.

    J'aime beaucoup ton VSEO !

    @ Aldo
    Les effets de Yoyo sont les plus désagréables. Je connais, mais n'ai pas vraiment de réponse pour t'aider. Je dirais juste que pendant un moment, ne rien faire est souvent la bonne solution. Puis ensuite, tester, retester...

    @ Raph
    Ne cherche pas à m'amadouer, la prochaine fois c'est un bisou ou rien:-)

    @ PH
    Oui, les liens à partir de sites d'autorités sont la meilleure arme forcément, mais pas toujours facile à obtenir.
    Pour le lien, je t'avoue que la première position est celle qui me fait le plus stresser. On est attaqué de toutes parts, il faut donc bosser pour y rester, certains visiteurs de ce blog le savent bien (salut Cedrick) il veulent cette place à tout prix ! Je ne vais donc surtout pas lever le pied. Ce n'est pas le top 5 que je vise, c'est la N°1 !

    @ Gwaradenn
    Je t'avoue que j'ai du mal à différencier les effets des 2 passages du Panda et celui du Pingouin vu que les 3 sont passés à la même période. De plus je n'ai eu personnellement que 3 sites touchés. Un MFA vraiment pourri, et 2 sites aux configurations Onsite et linking très différentes. J'appuie donc aussi mon raisonnement sur les retours de mes collègues.
    Comme toi je crois que pour le nettoyage du linking, l'effet peut être rapide. Pour la désoptimisation c'est plus compliqué. Je pense qu'il faut attendre une prochaine mise à jour des filtres.
    Et puis une fois que tu a viré toutes les opti, il risque d'être difficile de ranker:-)

    @ Olivier
    Lorsque l'on a un domaine « exact match », mon expérience me dit que le lien sur le domaine www. Etc. passe très très bien, oui.
    Pour de vieux sites bien trustés, oui, le bourrinage semble encore bien toléré. Mais bon, par sécurité, la dilution est sans doute la voie de la sagesse.

    @ Olivier
    Dans un cas comme celui-là, je ne ferais pas d'échanges, mais plutôt un montage en pyramide. C et D pointent vers B. B pointent vers A. Et ailleurs, E et F pointent vers G, et G vers A, etc.

    @ Pierre
    Le souci c'est que l'on a tous des exemples qui sortent un peu de la logique. C'est très perturbant en effet. Effets de bord ou pas ?

  29. cdillat

    J'ai lu je ne sais plus où (honte à moi) un truc qui me parait étayer la thèse des ancres sur-optimisées.

    En gros le raisonnement est le suivant :

    Google a fait énormément de progrès sur l'analyse onpage (LSA ..) => Google a moins besoin des ancres pour avoir des SERPS pertinentes => Google lutte contre les spammers => Penguin filtre la suroptimisation d'ancre => les SEO pose des liens avec des ancres "{ici|là}"

    Prochaine étape : Google tue le lien ?

    Par ailleurs en plus des ancres non optimisées, je pense que si Google prend de plus en compte les liens "full texte" (Exemple : ce n'est pas un hasard. Moi je dis ça je dis rien ...

  30. gasy

    Salut,

    Je vais clairement à un moment ou un autre refaire un article sur internet "Après Pingouin" et tenter (car cela ne sera pas facile) de regrouper tout ce qui me semble être bon.

    A ce moment là je vais renvoyer vers toi car j'approuve en grande majorité ton message. C'est plutôt tourné WH, bon sens et référencement durable... j'adore !

    Beau boulot.

  31. RaphSEO

    Bon Sylvain, si je te fais le bisou que tu me demandes est ce que je peux avoir un oui à ma requête?
    Si c'est le cas je peux même me raser ou mettre la langue si tu veux (oula je crois que j'y vais un peu fort, je vais me faire une bonne réput 🙂 )

  32. Philippe

    Merci pour cette mise au point. Mais comme il est dit dans les commentaires ci-dessus, cela fait longtemps que nous savons qu’il faut lever le pied sur l’optimisation on-page et netlinking.
    Le plus compliqué dans tout ça, c’est de trouver la bonne dose sans dépasser les limites que nous connaissons mal. Mais, il y aussi autre aspect du métier qui se complexifie, c’est la capacité à savoir estimer les effets d’une campagne de backlinks . En effet , avec de l’expérience dans le métier et une certaine connaissance du secteur, on pouvait plus ou moins prévoir la dose de backlinks qu’il fallait pour grimper dans les SERP et taquiner la première par de Google. Mais maintenant, tout ceci est beaucoup moins simple et désormais c’est assez complexe d’avoir une vision sur le netlinking et ses effets sur une page ou un site.

  33. Sylvain Richard - AxeNet Auteur de l’article

    @ Soul
    En effet, je parlais de trop d'ancres identiques et optimisées. Minimiser la répétition est exactement la démarche à suivre. Mais c'est le même principe que d'allonger la taille de l'ancre.

    @ Cdillat
    Plus c'est long plus c'est bon sera peut être la devise des SEO pour les ancres de liens d'ici quelques temps 🙂

    @ Gasy
    Merci !
    Bon sinon, un jour, il faudra quand même que tu nous dise qui tu es toi ^^

    @ Raph
    Le chantage ne marche pas 🙂
    Trop tard pour ta réputation, c'est mort.

  34. Astrid

    Pour aller dans ton sens sur la désoptimisation, désoptimiser onsite permet de gagner des positions de façon spectaculaire.

    Le mix kw absent du title + linking sur le kw ciblé fonctionne bien également.

  35. Déesse Julie

    Bonjour Sylvain,

    Intéressant, ça remet les points sur les "i", même si on sait qu'il faut arrêter de suroptimiser, je pense que ça reste malgré tout de nouvelles habitudes à prendre... Et que comme chacun le sait "chasser le naturel il revient au galop" ! Ah bah oui tient, Google, c'est son adage finalement !? =D

    Sylvain, lorsque tu écris qu'il vaut mieux baisser l'optimisation onpage si l'ouverture du site donne lieu à une politique de linking un peu agressive... J'aurais plutôt tendance à dire qu'il vaut mieux faire l'inverse (plus d'optimisation onpage pour moins de linking), peut être que je me trompe mais le linking très agressif me semble nettement plus "suspect".
    Et puis, la plupart du temps nos clients n'entretiennent pas de politique de linking... Du coup, c'est doublement suspect et ça peut même le devenir à postériori... Tu ne crois pas ?

    Sinon, je réfléchis beaucoup à cette histoire de site satellite, outre le boulot que ça demande ; je me pose quand même la question d'un algorithme qui là encore repèrera ce genre de manip'
    Je me dis, peut-être à tort, que Google ne pourra pas avoir 10 sites pour 1 seul. Imaginons que les premières pages soient occupées par deux sites et tous leurs satellites... Bon, en réalité je pense que les satellites ne se placent pas dans les premières pages mais clairement on imagine déjà l'embouteillage sur chaque requête qui présente admettons 10 000 sites et ses 10 000 x 4 satellites (pour faire une moyenne)...
    A mon sens, la méthode ne peut pas être pérenne...

  36. Sylvain F

    Bonjour Sylvain,

    Je suis d'accord avec toi mais j'aimerais rajouter tout de même un petit bémol concernant le linking : finalement il n'y a peut-être pas besoin de désoptimiser tant que ça les ancres. J'ai remarqué (ou j'ai cru comprendre) que des ancres variées mais restant optimisées (par exemple complémentaire santé, couverture pathologie, assurance maladie, mutuelle, etc.) peuvent passer à travers les mailles du filet tant qu'elles sont assez nombreuses. L'avantage est qu'elles donnent un peu plus de poids qu'un "cliquez ici" ou "plus d'infos".

    Concernant l'optimisation interne, c'est bête à dire, ça sonne très Matt Cutts, mais tant qu'on rédige pour l'internaute ça passe plutôt facilement. Les histoires de pourcentage de mot-clé dans le texte m'ont toujours fait sourire, alors qu'un champ lexical proche de l'expression est tellement plus naturel et plus efficace. Lire l'expression dans chaque sous-titre et plusieurs fois dans le texte est parfois assez indigeste.

    Garder une certaine ligne au sein d'un même site peut également démontrer un sérieux qui n'est pas forcément axé SEO aux yeux de Google. Beaucoup des articles de Noviseo se terminent par exemple par un H2 qui s'appelle "Conclusion", il y a bien mieux pour l'optimisation mais Google peut y voir simplement une habitude éditoriale.

  37. Niina

    Ça va donc être bien plus dure de se positionner pour un petit site qui vient de.naître.

    Sinon j ai lu aussi je ne sais plus où qu il serait peut être plus naturel de linker les pages profonds car 100% page d accueil ça ne pourrait pas sonner très naturel.

  38. Erwan

    Je suis d'accord avec toi sauf pour la notion du nofollow. Je pense que cela va être capital comme le fait de ne pas avoir trop de liens (en proportion) depuis des sites SEO identifiés.

  39. Olivier

    Bon article, ça correspond bien à ma vision des choses.

    Le souci, c'est pour des gros bien installés qui se prennent une tarte par le manchot. Les volumes de liens sont parfois très importants et c'est pas forcément simple de renverser la vapeur en desoptimisant ou en diluant avec de nouveaux liens.

    Par contre, je veux bien avoir vos points de vue sur l'optimisation des ancres de liens internes,

  40. Sylvain Richard - AxeNet Auteur de l’article

    @ Astrid
    C'est vrai, c'est plus long, mais ça fonctionne.

    @ Julie
    On est d'accord. En fait, j'ai peut-être tourné les choses en mettant en avant une exception, mais sur la logique générale, je suis tout à fait d'accord.

    Sinon, quand je parle de satellites, j'y reviendrai bien plus en détail avec un dossier très concret qui s’étoffera au fil du temps. En fait, je considère les "satellites" comme de vrais sites ayant une vie propre.
    Je ne les considère pas comme des sites purement SEO, mais comme des appuis s'intégrant dans une stratégie plus globale.

    Très bonne réflexion donc, elle fera l'objet de plusieurs articles ici prochainement.

    @ SylvainF
    On est d'accord, le tout est de varier les ancres, même si elles sont optimisées. Mais la capacité de Google à identifier le contexte du lien doit à mon avis être utilisée de manière à noyer encore plus le poisson. Un lien sur une ancre "voir l'exemple" ou "cliquez ici" ou "ancre de 5 ou 6 mots comprenant le mot-clé" restent extrêmement efficace quand ton lien est posé sur une page qui ne parle QUE du sujet de la page que tu pointe.

    Cela rend ton profil de lien très naturel. Concrètement, tu as un site de tractopelle, tu obtiens un lien sur un site dont la thématique globale est le tractopelle, sur une page qui perle spécifiquement de tractopelle. Et bien tu peux faire le lien sur le nom de ton site (duschmoll.com), pas besoin d'avoir l'ancre "tractopelle", Google saura parfaitement thématiser ton lien.

    @ Niina
    C'est très juste, mais depuis 10 ans 🙂
    Je conseille au moins 50% de liens vers les pages internes, plus c'est encore mieux.
    De toute façon, il est impossible d'optimiser une page d'accueil pour 3000 expressions-clés, on est donc bien obligé de le faire sur les pages internes, les liens doivent donc renvoyer sur celles-ci.

    @ Olivier
    Pour le sliens internes, personnellement, je reste assez lourdaud.

    @ Erwan
    Tu as raison, mais dans une stratégie plus générale, les nofollow ont les obtient naturellement sans efforts, c'est pourquoi j'essaie de ne pas passer du temps (pas très rentable) dessus.

  41. Olivier

    Oui, pour l'instant, j'utilise des liens internes très optimisés aussi, notamment dans le fil d'Ariane.

    Je pense pas que Google puisse nous pénaliser sur ce point si c'est bien fait, car les liens internes servent à la navigation et à renseigner l'internaute. Mais bon, je voulais avoir un avis contradictoire et je l'ai eu, merci.

  42. baxxx

    @sylvain si tu veux je t'envoie en stage chez mes juristes, c'est hyper formateur comme milieu pour désoptimiser 😀

  43. Fred

    Bonjour, encore un article et des réflexions des uns et des autres très surprenant.

    Changer nos habitudes - c'est certain mais de quelle manière ?
    Et bien en laissant des links non optimisés (cela fait consensus à priori) et bien de la même manière que les liens optimisés. Pour moi - c'est une aubaine inespérée.
    Un site avec un peu de bouteille à déjà beaucoup de links de toutes sortes - il suffit donc bien d'optimiser l'existant - un lien noffolow - un lien sans ancre - ce n'est pas trop dur à obtenir et en plus on peut automatiser les recherches.

    Pour les sites plus récent - c'est encore un paramètres de plus à prendre en compte.

    Par contre - j'ai un gros doute sur les blogs et autres pages satellites - car après quelques mises à jour du dernier algo de google - ils seront grandement pondéré - car finalement assez facilement repérable - si ils contiennent beaucoup de links vers un même site. Certes on peut la jouer fine est dispatcher les liens entre différents blogs et autres liens partenaires - mais cela devient franchement complexe et chronophage - à mon sens.

    Conclusion : ce nouvelle algo reste une aubaine. A voir pour la suite...

    Fred

  44. Sylvain Richard - AxeNet Auteur de l’article

    @ Fred
    C'est pour cela que je répondais à Julie que j'y reviendrais plus tard.
    Faire le bourrin avec un blog est sans intérêt, il doit s’intégrer dans une stratégie marketing et SEO plus générale.
    Si le blog sert à reproduire les actions de bourrin du site, autant l'oublier.

  45. Déesse Julie

    Hâte de te lire à ce sujet, Sylvain.
    Autant j'arrive bien à comprendre l'intérêt d'un blog (intérêt personnel, j'entends) autant la gestion de sites satellites me parait bien complexe pour arriver à un résultat naturel... Une idée que j'avais : décomposer un blog multi-thèmes en autant de sites satellites...
    A bientôt !

  46. Maxime

    En même temps vu ce monde de bourrin, je me dis que chaque améliorations de Google ne peut être que bénéfique pour les sites « honnêtes ». Si notre contenu est légitime et naturel, il sera de moins en moins dépassé par des bouchers SEO qui font du lien bourrin pour nous croquer quelques positions...

  47. Chloé

    Sylvain,

    Il est clair que Pingouin a semé la zizanie parmi le monde SEO. C'est forcément désagréable de se rendre compte que son site est pénalisé après avoir fait tant de travail dessus.

    Personnellement, je pense également que modifier un peu nos ancres et arrêter de les sur-optimiser est une bonne chose. Voici un autre exemple vers mon site :-).

    Bonne soirée,

  48. Olivier

    Et d'ici quelques temps Google pénalisera les sites avec URL rewritées car ça sera considéré comme de la sur-optimisation. Les webmasters désactiveront alors le rewriting de leur site du jour au lendemain, donc tous les BL renverront vers des 404. La boucle sera bouclée, ça sera la fin du monde, Facebook rachètera Google pour 1 dollar symbolique :p

  49. Laurent

    Une question qui me taraude , quand on "désoptomise" un site qui a pu voir ses classements affectées, en combien temps de temps la reprise des places s'effectue t elle (ou simplement la prise en compte des modifs ) ? J'ai cru lire qu'il fallait attendre que le Penguin repasse, mais le fait il quotidiennement , hebdomadairement ou mensuellement comme le Panda ?

  50. Aymeric

    La désoptimisation dans le netlinking est clairement la clef pour ne pas se faire attraper par notre drôle d'oiseau 🙂 quand on regarde certains profils de linkbuilding, on se dit que Google aurait tord de se priver de ces textes d'ancre "trop parfaits"...

  51. Shelko

    Merci pour ce très bon article sur la bête à plumes.
    On va voir une recrudescence de liens dés-optimisés dans les semaines à venir, mais à force de MAJ de plus en plus sanglante Mr G va réussir à trouver la formule pour avoir des sites presque naturellement mis en valeur.

  52. phil

    Quand tu dis: "vieux sites bien installés", le "vieux" correspond à combien d'années dans ton esprit ?

    (En tout cas penguin n'a pas été qu'une catastrophe, le filtre a permis de gicler les supers gros sites prenant quelquesfois jusqu'à 4 résultats en premiere page d'une requête! Et ca...c'est pas mal !)

  53. webdesign

    Bonsoir, c'est fou quand même de devoir désoptimiser un site. Ce qui veut dire que l'on est obligé de faire attention au contenu, et à la structure du site. Donc un site parfait qui respecte les normes de codage avec un contenu trop riche est pénalisé. C’est le monde à l'envers. Après, que l'on sanctionne certaines pratiques, je pense que c'est normal. Mais bon, Google est doué pour faire perdre le Nord... 😉

  54. Mitmi.fr

    Je pense que je vais en profiter pour sur-optimiser mes backlinks puisque à mon avis le filtre pingouin ne joue pas vraiment sur ça.

  55. jerome

    8 sites lancées récenement, avec une méthode qui fonctionnait. Premières couches avec des liens optimisées (une bonnes centaines par sites) ou j'y passe du temps, puis passage de liens divers (cp, annuaire, liens footer), puis des liens plus crades full auto. Le tout répartis dans le temps. Le manchot est sorti juste après la première couche (entre 50 et 90 liens optimisées par site) du coup je suis retombé sans même avoir eu le temps d'être véritablement monté dans les serps. Habituellement c'est la dernière couche la plus délicate, spammer assez, mais tout en restant sous les radars.
    Ma conclusion c'est qu'il va falloir ammorcé les 3 couches en même temps pour varier les ancres...

  56. SEO

    Avec l'arrivée de Google Pingouin, c'est à y perdre la tête. Désoptimisé son contenu, c'est le monde à l'envers

  57. Grégory

    Le but des filtres Google ne vise pas les contenus optimisés mais les suroptimisations. Il faut rester raisonnable et ne pas truffer la page de mots clés ou créer des liens "automatiquement".

  58. Infusion Web

    Bonjour,

    Je penses que l'avenir du SEO est vraiment très sombre, j'ai l'impression que Google depuis plusieurs mois carbure à sortir de manière réguliére des optimisations de son algorithme pour privilégier les sites "naturels", des sites "optimisés". Dans un sens, c'est une bonne chose pour rééquilibrer les choses et laisser la chance aux autres, mais bon... Est-ce le début de la fin du SEO?

  59. julien

    La mise à jour est bien, mais le problème c'est que tout le monde va se mettre à référencer correctement, cela dit les ( bon ) référenceurs ont déjà de l'avance.

    Dire que certains se moquaient des ancres urls...

    Attention, du coté de bing ça bouge pas mal 😉

  60. Timothée Viriot

    Tout cela va sérieusement compliquer les tâches de référencement. Surtout pour les petites agences spécialisées dans le SEO qui ne peuvent pas toujours se permettre de proposer des "stratégies globales" car leurs clients n'en n'ont pas toujours les moyens.
    Approche intéressante en tout cas sur la désoptimisation. Une question cependant, pour ceux qui n'auraient pas modifiés leurs sites suite au filtre panda/pingouin, n'y a t-il pas eu un certain retour aux positions d'antan ?

  61. Keeg

    Je suis assez d'accord sur la gestion des ancres qu'on se doit de faire évoluer dans le sens que tu indiques. Ce n'est bien entendu pas le seul point à prendre en compte, même au delà de l'optimisation. Il vaut lever le pied sur la totalité des facteurs (et ils sont nombreux) est paraître encore plus naturel qu'avant... en associant ce qui fonctionne toujours bien (à trouver).

  62. Xavier

    Personnellement Penguin a été assez bénéfique pour moi. J'ai simplement varié pas mal les ancres, et j'ai évité de bourriner mon site de liens en écrivant 1000cp inutiles ou en ne m'inscrivant pas sur des annuaires de mauvaises qualités. J'ai fait ma construction lentement en plaçant des liens sur des sites naturels. J'étais déjà en 1ere page sur mes mots clés principaux, depuis penguin, mes mots clés secondaire et longue traines ont aussi pas mal augmentés dans l'ensemble

  63. jean-luc

    Article bien venu qui me permet de comprendre un certain nombre de choses. Avec toutes ces modifications récentes, j'avoue que je me posais beaucoup de questions.
    Finalement, si je comprends bien votre article, l'optimisation du site reste primordiale. Si elle est bien réalisée et solide (est-ce que les liens internes jouent sur l'optimisation du site ?) la forme des backlinks sera d'autant moins importante ?

    Autre question, je n'ai pas trouvé sur votre site un article sur la façon de bien faire son maillage interne (liens). Peut-être suis-je passé à côté. Est-ce qu'il y a un ou des articles qui pourraient m'instruire dans ce domaine ?
    Merci.

  64. Xavier

    Je te rejoins totalement dans ton analyse, après avoir pas mal d'articles et avoir subi une vilaine sanction sur l'un de mes sites je confirme que celui-ci :

    - est jeune
    - a quasiment que des backlinks optimisés
    - n'a pas forcement de backlinks depuis une page trustée
    - ses pages contiennent pour la plupart mon mot-clé principal

    Bref, tout un tas de choses qui ne semblent pas plaire à notre ami Google donc je vais parer à cela dès que possible.

  65. Anne

    Je suis d'accord avec Timothée Viriot. Ça devient compliqué cette histoire, si GG change en permanence les règles du jeu. Finalement les grands gagnants sont les gros sites qui ont la force financière pour s'adapter en permanence et les perdants sont les petits sites qui font ce qu'ils peuvent avec les moyens du bord...

  66. Mickael

    Ça va commencer à devenir coton tout ça !
    Parce que si on commence à rentrer dans des pourcentages d'ancres optimisées et d'autres non...
    C'est quand même une sacrée mise à jour !
    En attendant, merci pour ces conseils illustrés 🙂

  67. Baptiste

    C'est bien de signaler que Google ne situe pas le "taquet" au même niveau selon les secteurs, et ça tient à mon goût pour n'importe quelle metrics : étudier la concurrence sur les requêtes qui nous intéresse, regarder ce qu'ils font, et ensuite (tenter de) déterminer des stratégies permettant d'obtenir des résultats similaires, lorsque c'est possible.

    Le % de KW rich anchors est une chose, mais ça peut aussi être appliqué par exemple aux poids des socials metrics dans le ranking.

  68. blog voyage senegal

    Le linking externe est la solution, tout en étant aussi la source des problèmes et les sanctions. Personnellement depuis que j'ai diversifié mes textes ancrés, mes sources entre dofollow, nofollow, etc.. j'ai bien évité les sanctions de Pinguin, au contraire j'ai carrément bien avancé.
    C'est ce que je conseille tout le monde de faire, surtout les liens depuis les médias sociaux, ils sont les plus naturels pour Google

  69. Le Juge

    Salut Sylvain,

    Pleins de bon sens tous ces conseils -

    J'ai commencé a désoptimiser certains site ou vraimentt il y avait abus de la part des SEO avant moi dans la boite - maintenant au niveau pure "texte bourrin" j'en vois qui passe tres bien encore sur des sites pas si vieux que cela.

    Idem au niveau liens - j'ai levé un peu le pied au niveau des ancres et j'ai commencé a mettre plus de "NDD" ou "Nom de la Compagnie" vers les sites les plus jeunes mais encore une fois - c'est plus par mesure de précautions qu'autres chose - rien remarqué.

  70. SoSoDam

    Merci Sylvain pour ce rappel et le "jour d'après"...
    Perso, pour les sites récents, je garde les ancres qui pointent vers les pages thématiques en rapport et je vire les ancres vers la homepage. Pour les vieux sites qui se portent bien, je freine un peu niveau contenu mais pas niveau liens. Ca reste quand même très dur de tirer des conclusion des effets du manchot. Je reste quand même sur mon idée de "gros coup de balai" de la part de Google et de rééquilibrage par la suite. En effet, je doute de la pertinence des SERP si les liens (et le texte !) sont de moins en moins pris en compte dans l'aglo. A suivre...

  71. axel

    Bon bah je mets en application, je désoptimise XD. J'y pense à chaque fois avant de placer un lien mais c'est tellement rageant de ne pas placer EXACTEMENT l'ancre qu'on veut que trop souvent je craque... sinon je pense comme toi qu'il y a les liens "pour le jus" et ceux pour l'ancre qui sont 2 types distincts.

  72. assurance de pret pas cher

    je trouve cet article vraiement utile, ce n'est pas la fin de la suroptimisation mais plutot la fin de l'ere des bourrins (dont chacun d'entre nous a deja été un peu, au moins une fois 🙂

    merci, pour vos appréciations, en effet ce sont les sites récents qui ont pris un coup ...

  73. Bernard

    En tout cas il devient de plus en plus dur de refaire du "naturel" !

    Le métier de SEO est il amené à disparaître? C'est ce dont j'ai l'impression vu que Google s'attaque à la (sur)optimisation.

    Devrions nous seulement nous cantonner à suivre les guidelines de Google sans réfléchir ou trouver des stratégies?

  74. Arnaud

    Franchement, on va voir apparaître des tonnes d'ancres dés optimisées qui auront encore moins de sens que les ancres optimisées.
    Imagines un visiteur qui arrivent sur un article de CP, il va voir des "cliques ici" par ci, "cliques ici" par là, cela va être encore + incompréhensible qu'avant !
    Aurait mieux fait de rien toucher notre ami GG 🙂

  75. hamaied

    @Arnaud L'intitulé cliquez ici (en terme d'ancre naturel) s'il y a une petite phrase avant ou après le lien qui indique le contenu cible...

    En tout cas, c'est tout à fait légitime pour google de se battre contre les ancres optimisés... Tout dépends des abus après

  76. hamaied

    Question :
    @Sylvain - Pour un site pénalisé pour sur optimisation d'ancres, que penses-tu du changement les ancres des backlinks acquis, afin d'apporter une proportion plus importante d'ancres naturelles ? es ce que le simple fait de mettre à jour les ancres pourrait faire remonter un site dans les SERPS...
    Tout en sachant que Google garde en mémoire un historique des Backlinks ?

  77. Vivien

    Ça en fait, ça en fait...
    Le plus compliqué dans tout ça, c’est de trouver la bonne dose sans dépasser les limites que nous connaissons mal. Mais, il y aussi autre aspect du métier qui se complexifie, c’est la capacité à savoir estimer les effets d’une campagne de backlinks . En effet , avec de l’expérience dans le métier et une certaine connaissance du secteur, on pouvait plus ou moins prévoir la dose de backlinks qu’il fallait pour grimper dans les SERP et taquiner la première par de Google.

  78. lz

    Je lisais un article qui traitait des CP, qui sont normalement les sites les plus "naturels" qu'ils puissent y avoir (du moins ceux qui sont modérés) et pourtant même les Réf qui ont un site de CP clean ce font parfois maltraiter par Google !

    Donc il faudrait soit une fuite de chez Google pour savoir le vrai Impact de Pingouin (douce utopie).
    OU
    Une équipe de crack qui analyserais l'algo avec des séries de test A/B, sauf que une fois l'algo compris je ne pense pas que chacun partegera sont travail !

    Il reste donc la spéculation :]

  79. alex

    Je crois qu'il devient de plus en plus difficile de vivre avec un ami comme GG, qui n'hésite pas à mettre des bâtons dans les roues nous empêchant du coup de bien mener notre travail. La solution la plus sage serait alors de se soumettre à ses désirs pour ne pas voir son site disparaître ou chuter d'un moment à l'autre.Il faut travailler sans relâche et surtout viser sur le naturel. Pour moi on devrait équilibrer les liens c'est-à-dire faire du dofollow et du nofollow puisque cela peut aussi entraîner un excellent traffic, et je crois que cela sera plus naturel aux yeux de GG.

  80. Oussama

    J'ai commencé a allégé la densité des mots clés depuis une mauvaise expérience avec la première version de google panda, a vrai dire le l'ai presque annulé. Heureusement, je travaille avec de différentes ancres et je varie ma présence sur le web je pense que c'est pour cette raison que je n'étais pas toucher par Pingouin. Le problème que google ne souhaite pas revoir les sites qui ont été touché par google Pingouin, il demande que les gens doivent revoir le netlinking de leurs sites et de faire le nettoyage et attendre le nouveau passage de Pingouin. Un de mes amis a perdu beaucoup avec google panda et l'arriver de Pingouin lui fait vraiment mal. A vrai dire, j'ai peur même si je ne fais pas de bêtises mais who knows what google will do next time???!!!!

  81. j'ai oublié mon nom

    Un excellent article, il est devenu évident qu'il faut revenir au naturel et ce serait un grand bien : surtout pour les utilisateurs !

    Mais, ici, je viens de créer un lien vers "création site internet professionnel" qui, au fond, est naturel puisque je suis une agence de création de sites internet, qui plus est, professionnelle. Mais le plus intrigant dans tout ça, c'est que le mot naturel n'est pas vraiment un terme très approprié ("ce qui n'est pas fait, modifié par l'homme", autrement dit, pas grand chose dans le référencement).

    Un second exemple : si je crée un lien "cliquez ici" vers une page "chaussures.html", je dénaturalise le contenu du lien et le sujet vers quoi il porte, il n'y a plus vraiment corrélation si ce n'est que "ceci pointe vers une page qui parle de chaussures" : alors est-ce naturel?

    C'est pour ça que la question se pose : Faire du naturel au sens seo, ne revient-il pas à ne pas faire du naturel?

    Ainsi, avoir 70 à 90% des liens d'ancres, comme tu dis, vers une page faite à partir de la même expression me semble quelque peu logique d'un point de vue naturel si la page concerne ladite expression (pas naturel au sens seo) et justement, le dilluer intelligemment revient à perdre le naturel (pas au sens seo :p vous m'aurez compris je pense).

    Qu'en penses-tu?

  82. Yann

    Machine arrière sur l'optimisation : NON

    Machine arrière sur la sur-optimisation : OUI

    Il est temps de rendre les sites plus agréables pour les visiteurs "humains" et comme tu le dis très bien au sein de ton post, en utilisant très largement les synonymes des mots clés ciblés.

    Au final, il faut juste être logique. Relisons nos textes, mettons-nous dans la peau d'un internaute lambda et demandons-nous si le texte est facilement lisible et ne présente pas trop de redondances.

  83. Etienne

    Bon, ben GGl a ce qu'il voulait. C'est le boss, il lève le bras, menaçant, on se prend deux ou trois coups de trique, pas trop forts mais ça fait quand-même un peu mal, et on baisse la tête. Oui, oui, ça va papa, je vais arrêter de linker comme avant, je serai sage, je ferai plus semblant. A partir de maintenant j'imiterai tellement bien que ça sera plus une imitation....

    Allez les gars, RDV à la prochaine MàJ: perroquet. 😉

  84. Cyril

    Lol,
    @etienne
    non perroquet c'est pas possible,
    il faut trouver un autre animal noir et blanc 🙂
    moi je verrai bien zèbre, l'algorithme ultime qui mettra tout les spammeurs définitivement derrière les barreaux.

  85. Valentin

    Quand je vois les milliers de backlinks issu des forums WordPress.org et .Com (complètement naturel et c'est plutôt pas mal !) c'est à 90% des liens sans ancre du genre "voir ici -http://www"...

  86. Charles

    Ce sont des bons conseils, et il est quand même mieux de bien sélectionner ses liens entrants que d'aller poser des liens partout comme on peut le voir sur certaines niches.

  87. JB

    Bonjour,

    Certains d'entre vous ont-ils perdus des positions entre le 6 et le 13 mai ? Je gère un site qui fait un peu plus de 1 000 visites/ jours et j'ai perdu 2-3 positions sur une longue liste de MC entre ces deux dates.

    Pensez-vous que cela puisse provenir d'une MAJ de notre cher Ami google ? Un animal noir et blanc ?

    Merci,

  88. Voyance

    Merci pour cet article

    Je pense que c'est comme pour tout, il faut savoir y aller avec modération, savoir ne pas abuser que d'une seule technique, et privilégier la diversité.

  89. Tristan

    Bonjour,

    Pour un animal Noir et Blanc, je verrais bien un Blaireau ou un Putois moi 🙂
    Non mais plus sérieusement, c'est intéressant de voir comme le monde d'internet est en même temps libre et sous contrôle.
    Je ne sais toujours pas de quel côté me placer, je suis déçu d'avoir eu à passer beaucoup de temps sur un référencement qui ne rapporte plus rien, mais en même temps je pense que les mises à jour de GG rendront le web meilleur au fil du temps.

    Merci Sylvain, tu arrives à rester toujours aussi juste dans tes raisonnements.

  90. Mathilde

    Très bon article et bonne analyse, dans l'ensemble je suis d'accord avec toi. Maintenant à voir ce que Google nous prépare pour les prochains mois... En espérant qu'il nous laisse encore quelques possibilités pour référencer nos sites...

  91. Yoff from

    Avec ce qui se passe, chez Google ces mises à jours qui visent le travail des professionnels de SEO, j'ai peur que d'ici quelques années, ce job n'existera plus. Certes, ces mises à jour visent à éradiquer les méthodes Black Hat, mais certains sites usant du white hat ont aussi été gravement touchés. Personnellement je me retrouve face à trop de boulot "à refaire" et en gratos pour mes clients.

  92. Gaëtan

    Bonjour Sylvain et merci pour cet article.

    Je n'ai pas lu tous les commentaires mais je me demande : est-ce que finalement en jouant avec des backlinks de type -www.mon-entreprise.be cela ne va pas remettre au goût du jour les mots-clés dans les noms de domaine ?

    Au plaisir de te lire, ici ou ailleurs,

    Gaëtan - @lynkky

  93. Mustapha

    Article intéressant. Voila google sème la terreur encore une fois avec la nouvelle mise a jour dite "Pingouin". Un de mes blogs en anglais qui diffuse de l'info sur les produits en concertation avec le fameux clickbank, a été victime de pingouin. j'étais pénalisé pour Les mots clefs qui aspire le trafic . mon conseil est de faire les retouches en suivant attentivement les conseils de google staff

  94. Mathieu

    Salut.

    Je crains que Google ne devienne peu à peu anti-SEO, un peu à l'instar de Bing.
    Ensuite utiliser les synonymes, varier les ancres,etc... ce sont des techniques qui existent depuis longtemps, elles vont simplement prendre plus d'importance avec cette mise à jour.

  95. yvan

    Salut Sylvain,
    Excellent article, très pertinent en terme d'apport. Effectivement, que d'habitudes à changer, enfin surtout en ce qui concerne le linking. Il va falloir varier, et surtout travailler de plus plus sur l'environnement sémantique, entourant les liens. C'est une habitude à prendre, mais finalement, comme le disent certains, le terme de référencement naturel prend toute son ampleur.

    Yvan,

  96. lereferenceur

    Bonjour Sylvain,

    J'aurais aimé avoir ton avis sur la position d'Olivier Andrieu dans son guide Pinguin, sur les ancres type "cliquez ici", qui annonce dans un commentaire sur son site :

    "En fait, ce type de lien renvoie une mauvaise "réputation" à la page distante pour Google (elle parle de "cliquez ici" ou de "pour en savoir plus", ce qui n'est pas très pertinent)."

    Ce commentaire est une réponse à cette question :

    "J'ai par contre était surpris par un paragraphe concernant les ancres des backlinks type : "Cliquez Ici", ou "en savoir plus" ...
    Je suis quand même d'accord qu'elles ne vont pas transmettre l'ancre d'un point de vue positionnement, mais ce type d'ancre n'est il pas ultra naturel ???"

    Si je comprends bien il déconseille d'utiliser ce type d'ancre au vue du commentaire du 2ème commentaire. (je n'ai pas lu son guide).

    Je pense aussi qu'il n'y a rien de pus naturel que ce type d'ancre. Quel est ton point de vue la dessus ?

  97. Sylvain Richard - AxeNet Auteur de l’article

    @ Lereferenceur
    Je n'ai pas lu le guide d'Olivier, mais je doute qu'il soit si directif.

    Je pense que le tout est de garder un bon dosage entre le Onpage et le linking.
    Vers une page optimisée à mort, des liens externes du type "cliquez-ici" ou "en savoir plus" surtout s'il sont dans un bon contexte (mots-clés avant ou après) restent qualifiés pour Google.

    Je pense en effet que ce type d'ancre est totalement naturel, comme celles faite sur le domaine par exemple.

  98. amaury

    Merci ce tres bon article. Une question neanmoins, pour diluer les liens optimises, vaut il mieux garder les liens optimises en l'état et en créer de nouveaux avec ces nouvelles guidelines? Ou bien désoptimiser certains des liens faits jusqu'ici en retournant sur les annuaires et autres pour changer l'ancre ? Est ce que ce n'est pas un message trop clair a google que de faire ça ?

  99. éditer à compte d auteur

    Le pinguin n'a pas d'autre effet que la strict obligation d'appliquer ce que l'on sait depuis longtemps dans le SEO, éviter la sur-optimisation dans tous ses états !

  100. Tanned

    Dur de se retrouver à ce niveau la mais avec la perte de position sur certains MC! Il va falloir beaucoup diversifié pour gagner des positions sur plusieurs mots clés que sur un seul maintenant!

  101. Jean-Luc

    Bon article.
    En tous cas bravo pour le site scpi-8.com et votre 3e place ^^
    Ma page http://www.devenir-rentier.info/scpi/ etait avant Penguin justement a cette 3e place pour le mot cle scpi, mais penguin a bien penalise la page: meme plus dans les 100 premiers :-(((
    Il faut dire que j'avais travaille le backlinking un peu trop avec la meme ancre... ca a marche... et paf la claque du pingouin!
    Heureusement le reste du site n'a pas ete penalise...
    Je devrais faire appel a vos service 🙂

  102. m2m

    J'ai de nombreux liens vers mon site -http://mode2marques.com avec l'ancre m2m qui correspond à mon pseudo. Du coup dans les webmaster tools Google, "m2m" est l'ancre revenant la plus souvent.

    Pourtant c'est on ne peut plus naturel... est-ce que cela peut être malgré tout pénalisé ?

  103. Steph

    @m2m:
    au pire tu ne perdras du ranking que sur le mot clé m2m, je ne pense pas que cela soit un mot clé très fréquemment tapé par les internautes 🙂

    Je pense que Google se dirige à moyen terme vers une dévaluation de l'importance de "l'ancre de texte" au profit du contenu thématique du site (et non plus uniquement de la page) faisant le lien.
    Ainsi on aura beau avoir un backlink avec une belle ancre sur son mot clé principal exemple "matériel de jardinage", si il est placé sur un site parlant de "trottinettes"ca sera moins efficace qu'avant Pingouin.

    Les sites de CP ont du soucis a se faire ?

  104. valerie

    Merci pour ce très bon article. Je reviens actuellement sur bon nombre de liens que j'avais sur-optimisé, et je remarque que certaines positions remontent. J'espère que ce sera durable (au moins pour qq semaines)

  105. Loiseau2nuit

    Hello Sylvain !

    Si tu optes pour de la désoptim', que penses tu d'un cas où, dans ton profil de linking, tu spottes une ou plusieurs sources de liens "pourris" (suroptimisés en footer par exemple) qui te déséquilibre tout ton profil de linking ?

    Penses tu qu'il faille faire supprimer (ou modifier) le lien ? J'ai un peu tendance à penser que c'est donner un signal aux moteurs qui peut ne pas nous rendre service vu le contexte actuel ?

  106. Sylvain Richard - AxeNet Auteur de l’article

    @ L'oiseau
    Difficile de répondre.
    Est-ce que ces liens sont bien la raison d'un déclassement ? Sinon, la seule manière de voir est de tester, puis d'attendre un update Pingouin pour voir si cela se traduit par une amélioration.

    Je pense que cela dépend aussi du nombre de liens "pourris".

  107. Loiseau2nuit

    Bah je pense oui. C'est un projet que je viens de récupérer avec un profil de linking vraiment pas opérationnel du tout (en gros : 70% de nos liens externes en provenance d'un seul et même site qui nous a lié en footer et "full keyword". J'hésite à contacter le webmaster pour lui dire à minima de remplacer le KW par l'URL, voir à virer le lien, ce qui m'agace puisque thématique connexe pour le coup...)

  108. Loiseau2nuit

    C'est ce que j'ai tendance à penser mais comment sera interprété le signal du côté de Moutain View ? ... 😐

    Je lisais sur un blog US récement que quelque part, intervenir sur les liens existants était comme "avouer notre faute à Google" perdant ainsi un peu de l'auréole "naturelle" qu'il y avait dans la démarche, mais là, si je dois ré-équilibrer tout ça tout seul, j'en ai pour des mois et le C.A. de mon client lui, ne les a pas (les mois) ^^

  109. Sylvain Richard - AxeNet Auteur de l’article

    @ L'oiseau2nuit
    Je pense qu'aller dans le sens du "nettouage", SI C'EST LA CAUSE" du problème, ne peut pas être néfaste, au contraire. Et puis tu n'as pas grand chose à y perdre. Avoir un lien sur 500 pages n'apporte rien, si ce n'est un signal de spam. La homepage suffit.

  110. Loiseau2nuit

    Merci pour ces lumières, je pense rédiger un billet pour rendre compte des résultats dès que j'en ai à exploiter 😉

  111. calixweb

    Merci pour cet article, le fais de diluer les ancres peut aussi peut aussi permettre de gagner des positions sur d'autres requêtes en restant le plus naturelle possible.

    Je vais donc mettre en pratiques des techniques que tu as expliqué et on verra bien les retombées.

  112. Référencer son site sur Google

    Le choix de faire différentes ancres sur ses liens est sans doute la meilleur chose à faire pour référencer son site sur Google.
    Après, concernant les liens "pourris", GWT devrait posséder un nouvel outil d'ici quelques mois qui permettra de dire à Google de ne pas tenir compte de certains liens.
    Le nettoyage sera nettement plus facile, à condition que Google mette effectivement à disposition cet outil.

Partagez sur :

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *