Google Pingouin ou pénalité liens factices, d'où vient la confusion ?

Pingouin ou pénalité manuelle ?

Que ce soit en lisant les forum ou en discutant avec des clients, je me rends compte que la différence entre une pénalité manuelle et le filtre Google Pingouin n'est pas toujours très claire.

Voici donc un récapitulatif sur les différences ou similitudes et le pourquoi de celles-ci. Notons au passage que Pingouin a visiblement refait surface depuis hier.

Les liens, le talon d’Achille de Google

L'algorithme de Google a toujours fonctionné en focalisant très fortement sur les liens entre les sites web (les pages plus exactement). La formule initiale du Pagerank repose essentiellement sur ce calcul de votes adressés à d'autres sites grâce aux liens.

Je ne connais pas la formule exacte, mais on peut constater que malgré tous les efforts faits pour prendre en comptes des centaines d'autres signaux, Google reste empêtré dans cette couche basse de son algo et n'a fait qu'empiler dessus des tas de filtres qui reposent toujours sur cette trame.

Que fait Google pour lutter contre les liens « factices » ?

Google considère globalement qu'un lien n'est pas naturel dès qu'il n'est pas fait volontairement et sans contrepartie par une personne qui souhaite réellement « conseiller » la visite de la page web concernée.

Pour lutter contre cette sale manie qu'on la plupart des propriétaires de sites de tenter d'obtenir des liens pour améliorer leur classement, Google à mit en place diverses méthodes qui ont pour objectif de minimiser ou pénaliser les liens qui ne sont pas naturels à ses yeux..

Pénalité pour liens factices ou filtre Pingouin, même cause, effets similaires.

Les méthodes les plus connues qu'utilise Google pour faire la chasse aux contrevenants sont :

  • le filtre Google Pingouin (automatisé)
  • les pénalités pour liens factices (infligées par des humains).

Concrètement, ces deux méthodes visent le même but.

  • Identifier les liens non naturels
  • Amoindrir l'effet de ce type de liens sur le classement d'un site
  • Faire peur ! Pour calmer l'ardeur des webmasters et SEO.

Quels liens sont les plus souvent visés et causent du déclassement?

En gros, les liens qui sentent le référencement.

  • Les liens sur une ancre optimisée, car ils ont un impact très fort sur le positionnement dans le calcul de l'algorithme.
  • Les liens faciles: Spam de forums, de profils, de commentaires de blog, annuaires peu modérés.
  • Les liens échangés : que ce soit sur une page partenaires ou un échange de contenu contre un lien (CP, guest-blogging, blogs)

Les effets sont toutefois similaires

Même si les effets se ressemblent, vous ne réglerez pas le problème de la même manière si la pénalité est manuelle ou algorithmique.

Et vous saurez aisément distinguer les deux, car pour la pénalité manuelle, vous recevrez un message de Google si vous avez bien inscrit votre site dans Google Webmaster Tool. Pour Pingouin, aucun message, aucune alerte si ce n'est une chute de vos positions. pour Pingouin, une demande de re-examen ne sert À RIEN !

L'effet sera tout de même différent, car en général une pénalité manuelle pour liens factices ne touche que quelques requêtes ou mots-clés (là où vous avez exagéré) et de manière plutôt franche, tandis que Pingouin a tendance à faire baisser les positions sur plusieurs semaines et que s'en sortir est particulièrement ardu, comme si le site était marqué durablement au fer rouge.

Il sera aussi bien plus facile (c'est relatif) de s'affranchir d'une pénalité manuelle, car le «dialogue» avec Google est possible au travers des demandes de ré-examen, alors qu'avec Pingouin, il faut attendre un update et le précédent datait d'il y a un an...! Au passage, les dates des passages de Pingouin ici.

Mais pourquoi Google utilise-t-il ces deux méthodes ?

Parce que son algorithme est défaillant.

S'il était possible de venir à bout des liens factices sans jamais faire intervenir des humains, Google le ferait depuis longtemps. Mais une machine reste une machine et même si elle s'améliore, elle reste inefficace en regard des techniques mises en place dans le camp d'en face.

Ceci risque toutefois d'évoluer.

On peut dire que jusqu'à maintenant, Pingouin tentait de se baser sur le gros spam: beaucoup d'ancres optimisées, support de liens de mauvaise qualité, faible qualité des textes, identification des réseaux de sites, grosse différence de thématique, mauvais scoring des sites émetteurs des liens, etc. (si vous voulez un mémo, voir la triplette du Pingouin).

Mais voici un an que Google tente de peaufiner ce filtre pour aller plus loin, pour le rendre plus intelligent, plus efficace. Sans doute, car le filtre faisait des faux positifs, mais aussi pour éviter de recourir massivement aux contrôles manuels qui lui coûtent cher (oui, même quand on magouille sur ses impôts et que l'on délocalise, le petit personnel coûte plus cher que des microprocesseurs...)

Google fait donc appel à des humains (plus intelligents)

Alors en attendant que les machines soient aussi «intelligentes» que dans Terminator 3, Google demande à des hommes et femmes d'aller jeter un coup d'oeil dans certains cas.

Quels sont les critères ou méthodes ? On peut imaginer 3 cas :

  • Vous commencez à vous positionner sur des requêtes concurrentielles (faciles à identifier, elles permettent à Google de faire fortune avec Adwords). Dans ce cas, il y a de fortes chances qu'un petit contrôle de vos liens s'impose un jour (comme avec les impôts si vous avez une piscine et une Porsche)
  • Vous êtes balancé par un concurrent (eh oui ma pauvre Lucette, on vit dans un monde de brutes)
  • Vous avez allumé un voyant rouge. Par exemple en acquérant un peu trop de liens optimisés trop rapidement (un de mes clients vient d'en faire les frais avec une action de negative SEO)

Si vous êtes pris, vous ferez donc le ménage dans vos liens entrants, mais même si c'est plus rapide qu'avec Pingouin, vous y laisserez quelques plumes, car pour avoir sorti pas mal de sites d'une pénalité manuelle de Google, je peux vous dire que la personne en face ne vous laissera conserver quasiment aucune ancre optimisée. Votre classement s'en ressentira donc forcément.

Si vous êtes un vrai gros gros spammeur doublé d'un malfaiteur, pas d'inquiétude, Google n'est pas prêt de vous prendre, je pense qu'il s'en fout.

Un petit conseil

Toutes ces pénalités ne concernent que les liens externes (en provenance d'autres sites que le votre). En revanche, je n'ai jamais vu de site pénalisé pour ses liens internes (sinon, le site du journal Le Monde serait au trou depuis longtemps). Alors avant de jouer au foufou avec votre linking chez les autres, pensez quand même à optimiser chez-vous. C'est moins dangereux.

En revanche, y aller trop fort sur les ancres optimisées internes ET très fort sur du lien externe de masse peut réveiller un Pingouin. Alors attention tout de même.

Pour conclure

Les liens ont toujours un énorme impact sur le positionnement d'un site dans l'algorithme de Google. Si ce n'était pas le cas, le moteur ne s'échinerait pas à concevoir des filtres additionnels et surtout à employer de coûteux humains pour faire le ménage. Votre linking est donc très important.
Mais attention, obtenir des liens est devenu un sport à haut risque, faites-le avec mesure.

Liens connexes

Le meilleur article que j'ai pu lire sur Pingouin :  http://www.htitipi.com/blog/google-pingouin.html

De l'espoir : http://www.eskimoz.fr/levee-de-penalite-google-pingouin-retour-dexperience/

Notez cet article

Partager sur Facebook
Partager sur Twitter Plein
Partager sur linkedin
Partager sur Google+

21 réflexions au sujet de « Google Pingouin ou pénalité liens factices, d'où vient la confusion ? »

  1. Xavier

    Il est en effet clairement plus facile de sortir d'une pénalité manuelle, le filtre est un vrai travail de fourmis, avec un travail sur le profil de liens, et seule une expérience avisée, et du temps permet de se sortir de ce genre de piège.

  2. Didier

    Et pourtant, on trouve des articles d'agence de référencement (parait il) qui disent avoir sorti un site de Penguin en faisant une demande de reconsideration. Comme quoi on lit pas mal de bétises sur le web !

  3. David

    J'ai eu une situation bizarre car tout d'abord un email de Google concernant des liens non-naturels, ensuite une forte baisse du traffic, la pénalité manuelle étant en place. Deux tentatives de reconsideration via la fonction "reconsideration request" de Webmaster tools. A chaque fois, de nombreux liens désavoués via le disavowal tool. A chaque fois, refus motivé avec trois exemples de liens non désavoués qui posaient problème (dans certains cas, ces liens étaient légitimes mais bon..).

    A partir de la troisième demande de reconsidération, plus de réponse de la part de Google, l'écran "manual actions" présente un "No manual webspam actions found" donc impossible de resoumettre une demande de reconsidération. Normalement, si une sanction manuelle est levée, Google doit au moins envoyer un email pour le notifier mais je n'ai rien reçu...et les rankings sont pires qu'avant (c'est dire!).

    Bref, après avoir désavoué 90% des liens entrants, toujours rien et plus moyen de demander une reconsidération. Qu'en penses-tu Sylvain?

  4. Sylvain Auteur de l’article

    @ Xavier
    Et dans le cas de Pingouin, jusqu'à maintenant, l'énorme laps de temps entre les updates n'arrange pas les choses. En espérant que ce soit plus fréquent à l'avenir.

    @ Didier
    Oui, j'ai lu plusieurs articles de ce genre, c'est une erreur assez courante.

    @ David
    J'ai vécu un cas similaire, avec un message d'action manuelle qui a disparu au bout de 2 jours, sans avoir rien fait, mais dans mon cas il n'y a pas eu de baisse particulière, je me suis alors dit que le « superviseur » de la personne qui avait appliqué la pénalité était passé et avait supprimé celle-ci.

    Dans ton cas, c'est angoissant. Peut-être aurais tu des explications sur le forum d'aide aux webmasters de Google (même si parfois c'est un dialogue de sourds...)

  5. Olivier

    Hi,

    Des questions intéressantes soulevées dans cette article mais difficile aujourd'hui d'apporter une réponse.
    « Tout ce que je sais, c’est que je ne sais rien. » (Socrate)

    Pensez vous que Google sème une sorte de panique, essaye de nettoyer le web pour ensuite continuer vers l'ancienne voie, qui était je pense plus pertinente...
    Aujourd'hui les sites avec un fort trustrank ressorte
    Les sites nouveaux (sans pénalités)
    Les sites n'ayant pas de liens entrants

    Pour conclure
    Ce qui est sur , c'est qu'il ne faut pas compenser le manque de qualité par la quantité....

  6. Thibault

    Bonjour Sylvain,

    pour info mon site a été victime d'une baisse d'environ 30 % de trafic depuis le 5 octobre. Les pages les plus touchées sont celles du blog qui ont été particulièrement travaillé en terme de maillage interne, avec des liens optimisés notamment, mais pas de liens externes !!!

    Le 5 octobre le serpomètre a eu un pic à 6... ne connaissez-vous pas d'autres sites qui ont été impacté à cette période ?
    Est-ce du au Pingouin ou à une simple mise à jour de l'algorithme ?
    Pensez-vous qu'en retravaillant le maillage interne je pourrais faire remonter les pages impactées ?

  7. Sylvain Auteur de l’article

    @ Olivier
    Je ne sais pas trop ce qu'était "l'ancienne voie" que suivait Google. Du coup je n'ai pas compris ton commentaire.

    @ Thibault
    Je n'ai pas vu de filtre spécifiques le 5 octobre, si ce n'est sans doute les suites de Panda de fin septembre. Et sans doute une mise à jour comme Google nous en fait très régulièrement car comme tu dis, j'ai aussi vu des mouvements.

    Pas facile de te répondre comme ça sans analyser le site en profondeur, mais si cela touche ton blog, as tu regardé si tu n'avais pas de gros problèmes de duplication de contenu ? Après, pour le maillage interne, le fait d'optimiser n'impacte généralement jamais négativement. Maintenant, cela ne veut pas dire "bourriner" non plus.
    Et puis s'il n'a pas de liens externes, il est un peu normal qu'il baisse face à tes concurrents qui en ont peut-être.

  8. Magicyoyo

    Si Google utilise aussi des humains, c'est que leur travail d'évaluation sert aussi à faire évoluer l'algorithme.

  9. Sylvain Auteur de l’article

    @ Magicyoyo
    D'après ce que j'ai compris, ce ne sont pas les mêmes équipes.

    J'ai toujours lu que les "quality raters" étaient des personnes employées par des société tierces (payées par Google). Leur rôle n'est pas de juger ou pénaliser un site en particulier, mais d'évaluer la qualité des pages de résultats : http://www.abondance.com/actualites/20111124-11168-les-google-search-quality-raters-qui-sont-ils.html

    D'un autre côté, on a la webspam team qui elle, a pour rôle de faire le ménage en évaluant des sites en particulier.
    Je ne sais pas s'ils remontent des infos pour le traitement par l'algo, car les défaillances dues aux liens j'ai dans l'idée que Google les connait, il a juste du mal à y remédier.

    Mais tu as peut-être raison.

  10. Thibault

    Merci Sylvain pour ta réponse rapide.
    Après vérification la plupart des pages impactées ont été dupliquées par d'autres sites !!!
    Je vais essayer de régler ce problème mais quand ont a plus de 200 articles le boulot devient vite énorme... si mes souvenir sont bons vous aviez également été victime de plagia sur ce blog. Comment luttez vous contre ce fléau au quotidien ? Existe-t-il des outils de vérification quotidienne du duplicata ?

  11. Fabien

    La technologie n'avance pas assez vite par rapport aux pratiques. Google est obligé de passer par des humains car l'algorithme est toujours en décalage. L'intervention humaine doit donc théoriquement corriger les défauts, mais surtout les faire évoluer (comme le dit si bien MagicYoyo).

  12. Sylvain Auteur de l’article

    @ Fabien
    Toi j'ai des doutes sur le fait que tu aies lu ma réponse à magicyoyo 🙂
    Mais peut-être as tu des infos la dessus ?

  13. Fabien

    Je n'avais effectivement pas vu la réponse entre temps. Je sais que les équipes sont différentes, mais je suis persuadé qu'il y a forcément une remontée d'informations pour modifier l'algorithme.

  14. Kalagan

    Bonjour Sylvain et merci de rappeler que Google agit également manuellement.

    Concernant les pénalités de liens sortants factices (soyons plus clairs, les liens sponsos...), avez-vous déjà eu des cas de récidive ? Car en général, une fois qu'on a retiré les liens factices et qu'on a récupéré son PR, on peut remettre des liens à gogo. En tout cas, j'ai observé plusieurs fois ce comportement, sans encore avoir vu de pénalité de récidive.

    En cas de récidive, c'est pareil ? Google vous remet le PR à 0 temporairement, on retire les liens en s'excusant et c'est reparti pour un tour ?

  15. Sylvain Auteur de l’article

    @ Kalagan
    Je t'avoue que je travaille esentiellement sur des pénalités pour liens entrants. Et là, je n'ai aucun client qui a pris le risque je jouer au plus fort avec GG.
    Pour la pénalité pour liens sortants, je ne connais que quelquess annuairistes ou blogueurs qui l'ont subi. Pour les blogueurs, ils noient bien mieux le poisson maintenant et ne font plus de liens sur des ancres optimisées, du coup, soit ça dérange moins Google, soit ça se voit moins, mais je n'en connais pas qui se sont fait prendre 2 fois.
    Donc pas de réponse à te donner sur ma propre expérience.

  16. Gaëtan

    Mais est-ce que Google pénalise également les petits sites comme le mien, les petites mains de Google ont-elles du temps à passer sur des petits blogs à faible trafic ?

  17. Kalagan

    @Sylvain
    Suite un article que j'ai publié sur le blog de Daniel que tu dois sûrement connaître, Seomix ( je me permet de mettre un lien vers cet article dans lequel je traite de pénalité pour liens sortants factices), un lecteur a commenté sur la récidive :
    En cette année 2014 j’ai était puni 2 fois pour le même site ( sanction manuelle) et je l’es sortit les deux fois.
    Apparemment, pas de pénalité spécifique à la récidive.

Partagez sur :

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *