Le classement des pages web dans les résultats de Google est géré par un algorithme. En effet, on imagine mal comment Google gérerait manuellement les milliards de pages de ses bases de données. Des interventions, et surtout, des pénalités manuelles sont pourtant régulièrement pratiquées par des employés de Google ayant un rôle de « contrôleur » de qualité.
Nous relatons ici le fonctionnement connu de ces pénalités humaines et un exemple concret de sanction infligée au site de notre agence et à l'un de nos clients.
Pourquoi des règles de qualité ?
En deux mots. Google est une entreprise commerciale qui gagne beaucoup d'argent en vendant des liens commerciaux. Pour que ceux-ci soient vus et cliqués, il faut des internautes utilisateurs du moteur. Si la pertinence des résultats naturels de Google n'était pas au rendez-vous, les internautes s'orienteraient vers un autre moteur (Yahoo, Live, …)
Quelles sont les règles de qualité de Google ?
Vous pouvez trouver les conseils de qualité de Google ici .
Vu comme cela, c'est presque clair. D'ailleurs, certaines pratiques « déconseillées » sont tellement évidentes, que l'on comprend bien que Google les sanctionne, puisqu'elles sont mises en place pour tenter d'influencer frauduleusement les résultats du moteur.
Ce que Google entend par « frauduleusement » se réfère généralement au fait que l'on tente de montrer un contenu différent à l'internaute de celui que l'on montre au moteur, ceci pour influencer son classement dans les résultats. C'est plus généralement ce qui permettrait de manipuler les résultats de recherche.
Parmi les « classiques », l'écriture en blanc sur fond blanc, le cloaking qui permet de repérer si l'on a à faire à un internaute ou un moteur, les positionnements de contenus « hors champ » , etc.
Des pénalités humaines...
Si une grande partie des filtres de Google est automatisée, nous savons qu'un contrôle manuel est parfois effectué. Parfois au hasard, souvent sur dénonciation (un outil est conçu pour cela dans les Google Webmaster Tools), et ces dénonciations vont bon train...
Le problème du contrôleur humain... C'est qu'il est humain. Autant cela permet de détecter intelligemment des pratiques qu'une machine ne saurait découvrir, autant ceci laisse place à une interprétation des règles. Dans les cas qui nous concernent, ce sont ces interprétations que nous ne comprenons pas.
Comment est-on prévenu ?
Si vous possédez un mail du type webmaster@lenomdusite.com ou contact@lenomdusite.com, vous recevrez sans doute un mail automatique qui vous préviendra que votre site va subir une 1ère pénalité de 30 jours de désindexation. Le détail de la raison est plus ou moins expliqué (une dizaine de cas prédéfinis). Google vous invite à corriger votre site et à demander son réexamen au travers d'un formulaire, lui aussi disponible dans les « Google Webmaster Tools ».
La suite ?
Et bien pour la suite, c'est le brouillard complet. Dans nos cas, nous avons modifié ou supprimé les contenus (même lorsque l'on se croit dans son bon droit et que l'on trouve la sanction totalement injuste, c'est l'éternelle histoire du pot de fer contre le pot de terre, alors à quoi bon essayer de discuter). Et ensuite, vous attendez, vous attendez, vous attendez... Dans l'angoisse.
Dans nos cas, la pénalité de 30 jours n'a pas encore été appliquée. On ne sait pas s'il elle le sera demain ou dans une semaine. Peut-être nos corrections ont-elles suffit, peut-être que le contrôleur qui s'occupe de notre cas est parti en congés, peut-être que...
Ce qui nous était reproché
Le mail parlait d'une accumulation de mots-clés (sans doute l'une des dix cases à cocher par le contrôleur qui n'a pas d'autres possibilité). Le mail présentait le texte concerné.
Ce texte ne comportait pas d'accumulation de mot-clé, mais un texte naturel composé à destination de l'internaute. Il informait, ne comportait aucun élément caché, ne contrevenait en rien à ce que nous avons pu lire dans les guidelines de Google. Bien sûr, ils comportaient des mots relatifs à l'activité présentée. Difficile de parler de création de site sans écrire le mot « site », où de vendre des bureaux sans utiliser le mot « bureau », mais la densité de ces mots dans les pages ne dépassait jamais les 1,5 % du texte. Faudra-t-il un jour écrire en ne faisant que des analogies, en n'utilisant que des synonymes, si l'on veut plaire à Google ?
Une image vaut mieux qu'un long discours disait Confucius (ce n'est pas vrai pour le référencement, mais dans le cas présent, il avait raison).
[nggallery id=5]
Deux poids deux mesures.
Alors que nous pensons avoir respecté les guidelines de Google, nous constatons que certains sites très connus pratiquent sans vergogne des techniques condamnées par Google, mais ils ont « la chance » de ne pas être pénalisés.
Des exemples ?
Nous vous invitons à admirer les accumulations de liens sur des mots-clés situés dans les footers (bas de page) ci-dessous. Édifiant, non ? Ces sites passent pourtant au travers des foudres Googleiènnes sans souci.
[nggallery id=4]
Le site d'un célèbre discounter ne comporte même quasiment que cela, sous couvert d'un plan de site fallacieux.
>> Voir la copie d'écran de la page d'accueil
Autre exemple :
Le site lemonde.fr (celui du célèbre journal) pratique à outrance une technique clairement mentionnée par Google comme une pratique interdite, le fait de placer des liens cachés dans les pages. Nous en avons dénombré 16 sur cette seule page : Voir la page de lemonde.fr
Amusez-vous à passez votre curseur sur ces mots dans l'article et vous constaterez par vous même.
Que doit-ton en déduire ?
Existe-t-il des passe-droits ? Combien ça coûte ? Doit-on avoir un degré de notoriété permettant d'échapper aux sanctions ? Y aura-t-il un jour une véritable possibilité d'échanger avec Google sur le sujet ?
Nous avons eu des échanges avec des confrères ayant subit ces désindexations sans en comprendre la raison. Tout comme nous, ils auraient aimé des explications plus claires. Nous ne parlons pas ici, bien sûr, de cas ou les techniques "interdites" étaient volontairement pratiquées.
Quel est l'impact pour les sites pénalisés ?
Google qui possède aujourd'hui une part de marché de 90% en France a acquis de ce fait un véritable droit de vie et de mort sur les entreprises. Une désindexation d'un mois peut en effet avoir raison de la trésorerie d'une société si elle distribue exclusivement ses produits au travers d'un site e-commerce.
Bien sûr, le recours aux liens commerciaux reste possible (le passage à la caisse Google). L'impact après coup est aujourd'hui très discuté du fait d'une autre pénalisation d'un mois sur votre référencement naturel lorsque vous arrêtez de payer les mots-clés.
Nous avions écrit un article humoristique il y a quelques mois sur les pénalités infligées par Google. Cet humour ressemble parfois à de la prospective...
Doit-on continuer à travailler le référencement et positionnement des sites ?
OUI ! Notre logique de référencement est la suivante :
Les moteurs de recherche ne sont pas encore arrivés à acquérir une technologie suffisamment avancée pour être totalement pertinents (On les comprends, la tache n'est pas facile). Nous appliquons donc les conseils de Google (toujours les mêmes) afin de lui faciliter la tâche, et l'aider à indexer les sites. Nous ne pratiquons pas de spamindexing.
Combien de fois avons-nous trouvé dans certains annuaires sérieux, des sites possédant un contenu d'une excellente qualité, que nous n'aurions jamais trouvé grâce à Google. Pourquoi ? Parce que ces sites ne sont absolument pas conçus pour être indexés par Google (utilisation abusive de FLASH, de Frames, Title mal renseignés, etc.) D'où l'utilité d'une optimisation du code et du contenu.
A l'attention de Google :
Si par hasard et par chance, un employé de Google influent pouvait lire cet article, nous serions très heureux d'avoir quelques réponses de sa part à nos questions. À commencer par celle-ci : cet article comporte 32 fois le mot « Google », est-ce une accumulation de mot-clé ?
Plus sérieusement,
Pourquoi n'existe t'il pas une procédure permettant de prévenir (au moins une fois) sans infliger de sanction ?
Pourquoi un traitement différent des sites, quels sont les critères ?
Pourquoi ne pas rendre possible une demande d'examen initial, afin de nous permettre de savoir si nos sites correspondent bien aux règles de Google ? (jamais de réponse dans le cadre du formulaire actuel de réexamen)
En résumé
Sans chercher à être complaisants (cet article ne l'est pas), nous comprenons bien la nécessité pour Google de maintenir un vrai niveau de qualité dans son index.
Nous apprécions d'ailleurs réellement ce principe en tant qu'utilisateurs quotidiens du moteur.
Cet article résulte avant tout d'un sentiment d'injustice lié à un manque de communication de la part de la firme de Mountain View. À part la SNCF, en France, peu d'entreprises communiquent aussi faiblement avec les utilisateurs de leurs produits.
Ce serait sans doute l'un des points à ajouter à l'amélioration de « l'expérience utilisateur » du plus célèbre des moteurs de recherche.
Et vous, qu'en pensez-vous ?
Edit sept 2011. De pire en pire, les liens des articles du Monde sont maintenant carrément planqués, le curseur "main" ne s'affiche même plus au passage de la souris !!
Article connexe
L’exemple de CDISCOUNT est effarant. Je n’y croyais pas et suis allé controler sur le site et vous avez raison. Ils se fichent vraiment ouvertement de google avec ce genre de pratiques.
Pour ce qui est du Monde, c’est même pire. Ils se défendront peut-être en disant qu’on voit le lien si on passe le curseur dessus.
Je me souviens que BMW avait été blacklisté à une époque, comme quoi les gros peuvent aussi trinquer.
Après, on peut aussi se demander si leur "case a coché" n'est pas une liste à puce, et dans ce cas, seul une solution cliquable est possible, d'ou la possible incompréhension.
Néanmoins, effectivement, on constate facilement qu'il y a souvent 2 poids 2 mesures et que de nombreux sites passent au travers des mailles du filet.
Les pratiques de lemonde.fr sont très clairement proscrites par Google. Les liens cachés servent uniquement à optimiser le référencement sur les mots clés. Je comprends mal que ce site ne soit pas déclassé par Google. La justice et l'équité ne font visiblement pas partie de leurs valeurs.
Je n'avais jamais réfléchi à ces aspects car je n'ai jamais reçu de pénalité de la sorte, mais vous révélez des choses étranges dans leur manière de procéder.
Vous devriez faire un spam report à google pour les sites que vous indiquez.
Nous avons eu le même problème sur le site de ma boite. On ne comprenais rien au message de Google. On a retiré des truc au pif dans le texte qui d'après eux n'était pas conforme. Google fait preuve d'autoritarisme et c'est comme cela, il ne nous reste qu'à nous écrasez sans explications.
Boite américaine = méthodes de bourrins.
Si vous voulez des réponses, ils vont vous dire d'aller regarder dans la bible les c---
Oui, c'est vrai que c'est doublement injuste, à la fois de se voir sanctionner pour une faute que l'on ne comprend pas et de constater qu'il y a de telles différences de traitements selon... le faciès !
Toutes les questions que vous aimeriez poser à "sa majesté" méritent réponse. Mais quand on truste 90%, quel que soit le marché, on ne se sent pas obligé de répondre. Et cela risque d'être le moindre mal quand sa puissance va s'étendre encore !
C'est regrettable, le classement automatique n'est pas infaillible justement à cause du SEO qu'il soit blanc ou noir, si les interventions humaines ne relèvent pas le niveau de pertinence c'est grave. Il ne faut pas que Google oublie que sa réussite est fondée sur la pertinence de son moteur de recherche, j'ai l'impression qu'il s'en soucie de moins en moins et occupe plutôt les ingénieurs sur les projets qui rapporte directement de l'argent...
je trouve exagéré de dire que les liens visibles en roll-over sur lemonde.fr sont des "liens cachés" et donc interdit par les guidelines Google. (pour moi ça s'apparente plus à du netlinking "grey hat" toléré sur les sites trustés).
Avoir trop de liens in text peut nuire à la lisibilité et l'esthétique des contenus, mais la frontière est très fine je le concède...
En revanche il est indéniable qu'il y ait deux poids deux mesures quant-aux traitement des sites par rapport aux guidelines GG, et c'est malheureusement inhérent à une politique de lutte antispam efficace.
"Ce que Google entend par « frauduleusement » se réfère généralement au fait que l’on tente de montrer un contenu différent à l’internaute de celui que l’on montre au moteur [...] Parmi les « classiques », l’écriture en blanc sur fond blanc, le cloaking"
A propos du cloaking, je me posais la question suivante :
Une page a un contenu très intéressant. Néanmoins l’ergonomie propre à sa thématique, qui facilite la bonne compréhension de ce contenu pour l’internaute, n’est par contre vraiment pas optimisée en terme de référencement. Maintenant je cloak la page non pas pour changer quoique ce soit au contenu, mais juste pour changer la disposition de ce contenu afin que sa présentation soit optimisée pour les moteurs. Une analyse en terme de “nombre de mots de la page” ne décelera aucune différence entre les deux versions, c’est juste leur disposition qui a changée.
Pratique frauduleuse ?
😉
jeffer
@ Fred
Je considère qu'il n'est pas de notre ressort de palier aux insuffisances d'efficacité d'une entreprise ayant réalisée 1,5 millards de dollars de bénéfice net sur le 2ème semestre 2008. Les moyens existent certainement pour permettre la mise en oeuvre de procédés autres que la délation. Je considère que mon devoir de citoyen s'arrête à la frontière du service public...et encore, je ne me vois pas trop dénoncer mon voisin s'il n'a pas déclaré sa piscine aux impôts.
@ Jeffer
Excellente question !
J'avancerais l'hypothèse que le fond est parfaitement compris par Google, qui sanctionne la technique car les googlers n'ont pas le temps de s'attarder sur le fond. Un peu comme notre police incitée à mettre des PV.
@ Lebosstom
Le site de notre agence a des liens dans le texte, d'une couleur différente du texte, et cela n'a pas l'aire de nuire à la lecture. Tout est une question de dosage. Dans le cas du Monde, on voit très bien qu'ils sont placés uniquement pour les robots.
@ Usgohome
Je rejoins un peu ta lucidité. Les indices de qualité sont jugés en volume, drôle de principe.
Je n'adhère toutefois pas à ton pseudo, dans le lot, certains sont bien, j'en connais 😉
@ Tous : Quand je vois que ce blog apparaît en 3 ème position sur «corbeille a linge à vendre » ou ceci : https://blog.axe-net.fr/pertinence-resultats-google/ je me dis qu'il y d'autres pistes à explorer pour l'amélioration des résultats de Google.
Sa majesté GG a dû prendre son café ou autre remontant... à moins qu'il n'ait lu ces commentaires avec ses petits yeux de robot futé ou d'humain pinailleur 😉 parce que ce soir, pour "corbeille a linge à vendre" on ne trouve plus le blog Axe-Net !
Les pénalités manuelles sont tout simplement un aveu de faiblesses dans les algos de Google .
Prenons la vente des liens par exemple :
Tandis que Yahoo! réduit les poids des liens présents dans les contenus s'ils sont en bas, ce qui est le cas pour la majorité des ventes ou échanges de liens, Google lui fait appel à la sanction manuelle grâce soit à des jaloux ou ennemis qui font un Spam Report ( le cas le plus courant ) ou bien de simples bénévoles qui veulent contribuer à un web meilleur sans spam ( cas très rare 😀 ) .
@ Françoise
Le retour de la corbeille à linge.
http://www.google.fr/search?hl=fr&q=corbeille%20a%20linge%20a%20vendre&meta=
C'est marrant que tu publie ce très bon article,je viens de subir une grosse pénalité également sur 4 sites et en même temps tout juste hier.
Notons que j'ai reçu un abuse la veille,
y'aurait-il une corrélation abuse et check manuel ou peut être est-ce cette même personne ayant envoyé l'abuse qui m'a fait un spam report...
En tout cas,"GG le (censuré),c'est clair, a droit de vie ou de mort, et ce n'est que le début !
Imaginons que GG veuille se lancer dans l'aérospatial, hop je sandbox un petit milliers de site et leur propose d'acheter de l'adword et je finance ma fusée nucléaire ultra hi-tech :p
bonjour, je posséde moi même un site web ordi-portable-info.fr
qui a été pénalisé sur un mot clé en particulier.
je m'en suis rendu compte quand j'ai tapé le mot clé en question avec une légère différence (un accent ¨) et j'ai comparé les résultat obtenu avec le véritable mot clé.
Et là il y avait une différence frappante dans le cas où le mot clé comportait l'accent j'étais en 2eme page et pour le véritable je suis totalement disparu de l'index!!!
Mais ce qui est bizarre c'est que je n'ai pas reçu d'avertissement, pas un émail.
Et je tiens à préciser que la pénalité ne concerne que ce mot clé en question car je continue à être indexé...
En attendant j'essaie de patienter mais combien de temps cela va-t-il encore durer?
Comment faire pour sortir du sandbox et savez vous combien du temps ça peut durer?
Merci de votre réponse.
@ Lingerie
La "sandbox" n'est pas une pénalité manuelle mais l'application d'un filtre automatique. Elle est généralement appliquée aux jeunes sites.
Selon plusieurs personnes, la solution la plus longue consiste à "désoptimisé" ce qui a été exagéré. Pour ma part, après avoir subit des andbox d'un an et plus, si la pénalité a lieu sur LA requête principale, je refais le site sur un nouveau domaine. C'est souvent ce qu'il y a de plus rapide.
@ Sylvain
Merci pour ta réponse. Oui je suis en sandbox depuis plus de 1 an. Alors rien d'autre à faire?
La pratique - des liens - de LeMonde.fr n'a rien de choquant. Il ne s'agit pas de liens cachés.
Cet article me semble vraiment hallucinant.
Il y a une remise en cause de vos contenus par les équipes de Google et pour votre défense, vous critiquez d'autres sites qui ne pratiquent, en plus, pas la même chose.
Concernant les liens en footer, Matt Cutts en a parlé lors de sa venue à Paris, et il me semble qu'à part dire que ces liens étaient sous-évalués, il n'a pas dit qu'il s'agissait d'une pratique dangereuse. Donc, critiquer une pratique qui n'est pas dénoncée par Google me semble nullement pertinente.
Je trouve que Google n'applique pas la même logique et les mêmes tarifs de sanctions à tous les sites, parce que quand on voit les exemples cités dans l'article sur le plan de CDiscount, c'est assez impressionnant.
Sinon je suis totalement d'accord sur le fait que la communication avec google est loin d'être leur grande qualité, cependant pour la partie Adwords, une personne s'occupe bien de nous.
@ Phillipe,
Concernant les liens de Le Monde, je trouve la pratique bien pernicieuse. Elle consiste à utiliser la même couleur que le texte, sans soulignement ni aucun autre élément qui permettrait de les distinguer du texte.
Cette technique permet de "montrer" les liens aux moteurs (puisque le code permet de les lire sans souci), mais surtout pas aux visiteurs.
Google répète à corps et à cris que l'on ne doit pas présenter un contenu différent. Avouez tout de même qu'il y a très clairement une volonté de cacher ces liens, sinon, merci de me donner une autre explication.
D'ailleurs, en continuant avec du display none et du texte caché -http://www.guillaumegiraudet.com/seo-texte-cache-actualite-lemonde-fr/ je trouve que Le Monde persiste et j'aurais donc du mal à croire en leur bonne foi.
Sur l'autre point, si je m'indigne, c'est justement parce que du contenu clairement visible et sans volonté de tromper l'internaute est sanctionné, alors que des contenus "magouillés" ne le sont pas. Franchement, ne me dites pas que ceci : https://blog.axe-net.fr/img/cdiscount.jpg n'est pas du keyword & link stuffing
Mais rassurez-vous, j'accepte tout à fait que l'on ne soit pas de mon avis 🙂
@Sylvain ça ne choque que la communauté SEO car nous en connaissons le but.
https://blog.axe-net.fr/plan/ a le même but mais dans une bien moindre mesure 🙂
@ Philippe
J'entends bien que nous parlons là entre SEO qui en comprennent les tenants et aboutissants.
Mais ayant l'impression que Google tente de communiquer auprès de notre communauté en n'oubliant jamais son beau panache blanc, je perçois comme une injustice le traitement de faveur fait à certains sites.
Pour le plan de site sur ce blog, très sincèrement, il est plutôt présenté comme une aide au visiteur. il est d'ailleurs accessible dès le premier menu. Il n'y a aucune tentative de le cacher.
Bien évidemment, je ne dis pas que je n'implante pas parfois des plans de site pour faciliter l'indexation. D'ailleurs, cela fait partie de conseils donnés par maitre GG lui-même.
@sylvain:
êtes-vous bien sur que la pratique utilisée par lemonde.fr est sanctionnable par google? Il me semble que pour que des liens soient considérés comme cachés, donc du cloacking, ils devraient être totalement invisibles pour le visiteur, par exemple en étant de même couleur que la couleur de fond de la page. Dans le cas présent les liens sont visibles même si je conviens volontiers qu'ils ne sont pas visibles "en tant que liens" puisque ils sont de même couleur que le texte et que leur aspect n'est pas modifié par le passage de la souris.
Je serais très surpris que google sanctionne ce genre de pratique sur les fichiers css, sinon cela pourrait aller très loin: serons nous bientôt sanctionné pour
a{text-decoration:none;}?
@ Olivier
Les directives de Google sont rarement claires, donc interprétables.
Maintenant, le fait de "cacher" le lien tant que l'on a pas le curseur dessus me semble plus que limite.
Dans cette logique, on peux aussi mettre des tonnes de texte indexable dans un layer, et n'afficher le layer que lorsque l'on passe le curseur sur un lien.
Si ce lien est caché de la même manière que le Monde, il y a fort à parier que 99,9% des visiteurs ne verront jamais le contenu du layer.
On n'est pas loin du texte blanc sur fond blanc... qui lui est sanctionné.
merci pour votre réponse. donc si je comprends, il faut que le lien soit visible avant le passage de la souris. c'est vrai qu'un lien type lemonde.fr qui ne recoit jamais de clic de visiteurs çà doit paraitre louche aux yeux de google, je pense que si ce type de liens ne sont pas forcément pénalisés ils ne doivent au mieux pas être pris en compte par google, du fait de l'absence de clic.
Je ne comprends pas les pénalités de Google. Actuellement Google sandbox l'un de mes sites sans raison. Pourtant je n'ai ni abusé de backlinks, et mon contenu est propre, le taux de rebond stable.