Mais où va donc Google ?

Tromper Google

Tout d'abord, un grand merci à Sylvain : publier sur AxeNet, un blog que je lis depuis que je fais du SEO dès le petit déjeuner, est un véritable honneur. Je vais donc tâcher d'être à la hauteur.

Je ne vais rien vous apprendre dans cette introduction, mais en France, travailler le SEO revient à travailler principalement sur l'optimisation d'un site pour un seul moteur de recherche, Google.

Forts de leur position de leader, les cerveaux de Moutain View font tout pour que nos résultats de recherche ressemblent à quelque chose de "logique" et  "propre" : c'est l'assurance pour eux de pouvoir manger à la fin du mois (pour la partie search en tout cas).

Une volonté de fer : contrer ses faiblesses

Ce n'est un secret pour personne, mais - à mon humble niveau - je pratique habituellement le black hat sur mes propres sites internet .  Je pense que c'est l'une des meilleures positions pour évaluer les faiblesses de l'algorithme de Google :

on se rend compte qu'il est sommes toutes assez aisé de falsifier la notion de "popularité" d'une page ou d'un site web, voire même la "confiance" que Google lui accorde (des liens en masse et de façon régulière, ou bien des liens de sites d'éducation, gouvernementaux, ou tout simplement venant de pages ou de sites eux-mêmes très trustés).

A ce propos, un tweet de RenardDuDezert m'a particulièrement marqué tant il nous concerne tous, nous qui commentons "rapidement et en allant à l'essentiel" certains blogs. Il est bien là le reflet de l'ignorance de Google, ou tout du moins, de sa considération de sa propre marge d'erreur.

 Qu'on ne me dise pas que la falsification rapide de notoriété est limitée à certaines thématiques : je connais un jeune homme qui a été capable de faire exploser les compteurs en quelques mois sur l'une (voire même sur deux) des plus grosses thématiques françaises (il se reconnaîtra, enfin, je l'espère).

Google en a bien conscience : la machine n'est pas infaillible, et aujourd'hui, deux choses sont évidentes :

  • tout le monde peut faire du contenu optimisé pour le moteur de recherche (sémantiquement correct, mais aussi totalement juste dans sa construction et sa hiérarchisation)
  • tout le monde peut créer des millions de liens  (trustés, mais aussi réguliers)

Même sa dernière annonce a ressemblé à un véritable flop : Panda a tapé dans le "gros" site, le site web visible qui scrappe et met à mal la concurrence sur de nombreuses requêtes (même si en France certains s'en sortent), mais combien de petits scrappers ou d'autoblogs sont passés entre les mailles du filet ?

Je n'ai pas autant d'expérience dans le SEO que la majorité ici, et pourtant, quelque chose me saute aux yeux : c'est la volonté de Google de centrer le calcul de la pertinence des pages sur l'utilisateur lui-même. 2012 devrait être dans la même veine.

L'utilisateur lamba

Là, rien de bien nouveau sous le soleil : taux de rebond, temps moyen passé sur le site, nombre de pages vues, des notions qui reflètent l'intérêt du visiteur pour votre site web, sont forcement des notions qui importent aux yeux de notre cher moteur.

En allant plus loin, on pense aussi au temps de chargement du site : là, on est face à un critère que je considère comme "évident", puisqu'il influe directement sur le confort de l'utilisateur. Et comme on le sait, l'utilisateur est roi.

L'utilisateur social

L'utilisateur des réseaux sociaux est l'une des nouvelles pistes que semble explorer Google pour juger de la pertinence des pages. Il partage, tweet et diffuse largement les informations qui lui semblent de qualité.

Pourtant, il va être très difficile pour Google d'inscrire cette notion dans le temps : ce qui est très souvent relayé, c'est le buzz, l'information qui ne doit être pertinente qu'au moment même de son explosion. L'autre difficulté vient de la "facilité" à falsifier ces indicateurs sociaux : on peut acheter du Like, du RT ou du +1 facilement, comme on peut acheter des fans ou des followers. Tout se monnaie ma pauv' dame.

Je ne m'étendrai pas plus que cela sur le sujet tant il semble compliqué selon moi que Google en fasse réellement un critère majeur.

L'utilisateur confirmé

Qui n'a pas souri en voyant qu'en même temps que le lancement de Panda a été effectué, Google décidait de mettre en place un formulaire de scrap report. Le SEO en 2012 devra plus faire attention à la concurrence qu'à Google lui même : la délation semble être devenue l'un des leviers les plus importants de nettoyage des résultats de recherche (ce qui était déjà le cas avec le formulaire de Spam Report).

C'est notamment ce qui est mis en évidence par cet interview d'un quality rater, qui explique que son travail consiste majoritairement à traiter les demandes issues des reporting des internautes : par extrapolation, cela veut dire qu'ils ne tracent que de temps à autre de leur propre chef les réseaux de sites.

Et dans la réalité?

Oui, "dans la réalité" car la majorité de ce qui est évoqué ci-dessus n'est que théorie, puisque l'on parle de la volonté des ingénieurs de chez Google. Aujourd'hui, certains indicateurs ne peuvent en aucun cas être oubliés, voire remplacés dans l'algorithme tant ils sont d'excellente qualité, quoique très facilement falsifiable.

Il ne s'agit ainsi plus que d'un problème de "marge d'erreur" dans les résultats de recherche, puisque tout le monde s'adonne au même sport : Google va chasser ceux qui trichent trop, perdus au milieu des autres, ceux qui trichent un peu moins.

Ainsi, dans la réalité, tout cela nous fait bien sourire, car le contenu optimisé (et encore, tout est relatif...) et sémantiquement propre ainsi le lien externe restent rois : ils écrasent tout les autres critères en SEO, et Google n'est toujours pas prêt de réussir à détruire le travail des référenceurs, qu'ils soient blancs, gris ou noirs.

Bref, vous voulez savoir comment je vois 2012 ? Disons que ça devrait aller 🙂 !

N'hésitez pas à aller faire un tour sur mon blog SEO, et à me rejoindre sur Twitter.

* Merci à BeTrashSEO  pour cet article en guest blogging publié dans le cadre Tendances SEO 2012.

Notez cet article

Partager sur Facebook
Partager sur Twitter Plein
Partager sur linkedin
Partager sur Google+

64 réflexions au sujet de « Mais où va donc Google ? »

  1. Mat

    Nous sommes tous des BH dès lors que nous cherchons à influencer les résultats de Google par du contenu, linking et autres artifices. Après, tout est question de "bourrinage" et de suroptimisation. Google essaye de limiter les excès avec plus ou moins de succès, les BH modéré ont encore de l'avenir. Je suis plus inquiets de la personnalisation des données, ou de l'impossibilité de connaître les mots clefs dès lors que l'utilisateur est connecté avec son compte GG...

  2. davidc1

    ça fait un bout que la chasse aux sorcières est ouverte.
    tout comme l'urssaf, il faut tâcher de ne pas aller titiller certains indicateurs.

  3. olivier

    Pour l'instant je suis plus que dubitatif sur l'efficacité de panda. Dans ma thématique, les seuls sites à avoir progressé (et ceci de façon vertigineuse) sont justement des MFA au contenu remplit d'une bouillie de textes illisibles réalisées automatiquement à partir d'autres sites de la même thématique, voir même carrément de textes copiés à la virgule près. Reste plus qu'à espérer que le spam report et le scrap report aient une réelle efficacité...

  4. Agence Solution

    En même temps si google pédale un peu dans la semoule avec un Panda semble t'il un poil étrange...les résultats dans les SERPS semblent quand même de plus en plus frais (trop parfois?).
    Pour moi Google 2012 offre plus d'espoir que les autres années en améliorant ses faiblesses!!!

  5. wilfried

    Après tout ces billet on aura fait un jolie tour d'horizon Peut être qu'un résumé s'imposera même.

    Je pense que Betrashseo voit juste, toutes les méthodes de 2011 marcheront; la barre à ne pas franchir sera peut-être un peu plus facile à franchir...

    De toutes façons, vous avez tous des sites pourris, fait pour tester ce genre de limites: linker à fond, de manière plus ou moins régulière, avec du follow ou pas, voire même des astuces Inpage bien crado.

    Pour 2012, je dirais : a vos test !
    Bon dimanche
    et pour ceux qui profite du we pour manger la galette en famille : bonne galette!

  6. JulienC

    Effectivement 2012 devrait rester sur de l'expérience utilisateur à coup de votes des réseaux sociaux et de temps de chargement "légers".
    Pour le CR du quality rater (M. White), il semble y avoir une volonté de ne pas communiquer sur leur degré de compréhension des tools et techniques BH. Pour Google, c'est aussi une forte utilisation sur le marché français : le pays des fromages qui puent. Donc, as prioritaire 🙂

  7. Marie

    La grande différence avec l'époque de mise en place de l'algorithme de Google, c'est effectivement que désormais il peut analyser les réactions des utilisateurs au contenu proposé... Mais est-ce que google, finalement, n'apprécie pas que l'utilisateur passe par une pub adsense sur un site fait pour les pubs ?

  8. yvan

    Cette histoire de spam report est quand même dingue...mais où va t on ? si tu passes devant le gars sur un mot clé, il peu très bien faire un spam report, et ton site va passer dans le joli filtre de panda ? (j'extrapole mais bon). quand a l'impact réel du social sur le seo, j'attends avec impatience une vidéo de matt cutts sur le sujet, car tout le monde est plus ou moins dans le flou sur le sujet..

  9. Marie France

    Est-ce que quelqu'un chez google sait encore comment fonctionne vraiment le moteur de recherche ?
    Tout programmateur sait qu'un logiciel aussi ancien, avec autant de cas à gérer, devient rapidement ingérable.
    La grande force de google c'est de malgré tout continuer à fournir des résultats corrects.
    Alors, naturellement, à chaque modification il y a des victimes (parfois inoccentes, qui ont simplement écrit quelques pages avec peu de contenu) et des failles qui se créent.
    2012 dans ce sens devrait ressembler à 2011...

  10. Xavier

    Ca change d'avoir une vision de quelqu'un qui dis que l'impact du social ne sera finalement pas si important que cela (pour la classement des pages Google en tout cas) ... c'est sympa de lire toutes ces tendances ou prévisions ... rendez-vous dans un an pour voir ce qu'il en sera ! 🙂

  11. Thomas

    En meme temps, je ne pense pas qu'il soit possible pour Google de contrer totalement le BH. Il y aura toujours de nouvelles techniques. Panda a quand meme touché un bon paquet de personnes aux Etats-Unis mais ce n'est pas pour autant que les gens ont arreté le BH !

  12. lereferenceur

    Peut être que Google nous lance ses modification d'algo et d'affichage de ses résultat pour mieux implanter ses services par la suite ?
    Pourquoi Panda a mis à mal beaucoup de comparateur quand Google propose son propre Google Shopping ?

    Pourquoi avoir incorporer Google maps en plein milieu des resultats : Parfois j'ai 2 resultats, puis que des adresses Googles Maps jusqu'à ma ligne de flottaison. Et je ne suis pas en 800x600 en résolution ...

    Google nous fait parler de sa chasse aux contenus dupliqués, aux liens non naturelles, etc... du coup on ne parle pas de leurs services qui viennent s'incruster au fur et à mesure.
    Ils sont tranquilles comme ça.

    Enfin après je suis peut être un peu trop parano 😀

  13. Soul

    +1 pour le tweet, quand on voie une pyramide de lien créé en 12h pointant vers le même site et que l'on rank quand même c'est bizarre. Sa vaut aussi pour les CPs sheduler sur x plateformes publier toujours à la même heure avec un jour de décalage..

  14. Gwaradenn

    Pour parler de BH modéré Mat ? Le black hat ne fait pas forcément la promotion d'un MFA ou d'un site inintéressant pour les internautes. Il utilise des techniques pour rendre son site visible à moindre coût, ce qui permet de se battre contre des acteurs majeurs du Web sans avoir le même budget. La qualité du site peut même être meilleur que ces sites "officiels".
    Tout comme BeTrashSEO je pense que cela va aller. 😉

  15. Michaël

    Google observe, analyse les phases de contournement (différentes pratiques de suroptimisation).
    Il n'en demeure pas moins qu'il a faim de résultats pertinents et le Panda en phase évolutive aura besoin d'énergie : alors attention au coups de bambou, à l'avenir !
    Ce n'est que mon humble avis...

  16. Djolhan

    D'une manière générale, google a du mal à faire la différence entre le vrai lien, bien crade d'un utilisateurs lambda et le lien bien propre d'un référenceur blanc, gris ou noir...

  17. Affiliation rencontre

    Hello,

    Excellent article.
    Le trafic change, les seos doivent aussi s'adapter !

    PS : Pour info le lien vers ton blog - betrashseo.com - me renvoie vers une page avec erreur de chargement.

  18. référencement grenoble

    Rien de mieux que le qualitatif, tout le reste est inutile si ya pas cette base..

  19. Clara

    Et oui, le lien structure le web et google qui exploite ce fait tente de faire la différence entre un palais splendide et un HLM construit en béton. Et il n'y parvient pas toujours...

  20. pansol

    je pense également que Panda fut un coup dans l'eau pour les mfa. il faudrait une évolution majeure dans leur algo pour recentraliser les sites selon les informations pertinentes ou non pour les utilisateurs

  21. sous location

    La seule chose qui peut éventuellement et vraiment faire peur pour une personne adepte du black SEO est la délation car effectivement même si Google progresse dans sa détection ce n'est pas un humain.

    Bon la délation c'est pas très morale...

  22. olivier

    Intéressant, et effectivement le travail des référenceurs seraient plus intéressant si Google n'avait pas le monopole. Imaginez, 10 algorithmes très différents à satisfaire, les stratégies à définir, les actions globales ou ciblées sur un moteur... Une valeur ajoutée évidente, ce serait plus difficile, donc peut-être aussi plus rémunérateur...

  23. Fabien

    Bon... alors je dois me mettre au BlackHat Modéré si je veux être dans la course c'est bien ça ? C'est toujours comme ça de toute façon. Aller j'ouvre google et j'entre les mots-clé qui vont me faire plonger du côté obscur.

  24. Renaud

    Google met en place une stratégie qui consiste a évaluer la fiabilité de chaque contenu en fonction de sa source / auteur. Une personnalisation du trust rank qui s'appuie sur le fait que les réseaux sociaux brisent l'anonymat.
    Mais le fait qu'un contenu soit anonyme ne le rend pas forcément moins qualitatif. Des échanges sur les forum, des opinions nouvelles peuvent êtres exprimés anonymement ou par des individus inconnus. Les sous estimer peut conduire à privilégier un discours unique, comme c'est parfois le cas sur Google News.
    Des déviances de ce type se sont déjà produites avec l'analyse de la popularité. Les gros sites populaires pouvaient se positionner sur n'importe quoi et étouffer des contenus plus intéressants. C'est ce qui est en partie reproché à Panda aujourd'hui : privilégier les grandes marques.

  25. BlogMestre

    Aucun algorithme n'éliminera le spam dans les SERPS; ça Google le sait.
    Alors la stratégie c'est de faire des modifications d'algo (ou de créer des filtres) par a coups le tout accompagné de beaucoup de communication histoire de focaliser l'attention de la communauté SEO.
    Tant que le seul outil fiable pour mesurer la popularité d'une site ou d'une page sera le lien, les techniques pour fausser les résultats de recherche seront les mêmes,quelque soit la dénomination des sites ou poser ses liens (annuaire, digg, cp ou autre)

  26. Thomas

    Au final j'ai trouvé que Google plus avait plus influencé les résultats que le panda. Si on ne fait pas gaffe, on retrouve tres facilement des liens de nos amis Google Plus, dans le top 10 des recherches Google,.. Ce qui n'a au final que peu d'intérêt pour l'internaute...

    Est ce que 2012 sera l'année de la chasse aux amis Google Plus ? ^^

  27. Vincent

    Intéressant ton post, et les commentaires le sont aussi.

    Je pense toutefois qu'il faut un peu le nuancer car Google a toujours des comportements particuliers selon les sites. Evidemment ton auto-blog ne sera pas traité de la même façon que le site à forte notoriété. J'ai lu un commentaire qui se plaint de voir trop "2012 sera l'année du social", je dirais à cette personne qu'il a un train de retard car depuis avril 2011 on arrive à faire de la notoriété avec des tweets (et ce n'est pas la redoute qui dira le contraire)

    Pour le reste je suis assez d'accord, même si aujourd'hui le spam report reste encore un mystère. Certains sites spam reportés donnent une pénalité à un autre site du même réseau, pourquoi ?

    En 2012 tout ira bien ? Sûrement car en 2011 on a eu assez de changement pour deux ans...

  28. Tony

    Je ne sais pas si c'est une impression, mais depuis l'arrivée de Panda, il me semble que des articles riches et cohérents reculent dans le classement, pour laisser la place à des articles beaucoup moins bons mais plus "frais". Je pense qu'effectivement, Google laisse beaucoup plus de place à la "nouveauté", quitte à faire reculer du bon contenu, pour la simple et bonne raison qu'il y a absence de mise à jour...

    Concernant le "social", je suis comme tout le monde et j'attends encore de savoir comment Google va gérer tout ça.

    Reste donc, comme le dit la conclusion... L'optimisation et le linking !

  29. Cédric

    Acheter du retwitt... ??
    J'ai pas trouvé où, mais passons, je reviens sur ce que nous dit Benjamin concernant les données utilisateurs, facteur certainement important, mais néanmoins très difficilement mesurables, d'ailleurs, je n'ai vu aucuns test à ce propos.
    Comment peut-on estimer, qu'un internaute arrivant sur une page et repartant au bout de 30 secondes est un signe négatif ? peut-être a-t'il trouvé son information comme complète et est reparti.
    A l'inverse, un internaute passant son temps à fouiller un site sans rien trouver, doit-il être un signe positif parce qu'il est resté longtemps sur site ?
    A la question où va google ?
    Il continue son bonhomme de chemin, tant pour nous il nous parait relativement facilement "bernable", tant pour l'utilisateur moyen, ses résultats ne souffrent pas contestation...

  30. bobby

    Je rejoins totalement les conclusions de cet article. Les leviers SEO traditionnels ont toujours de beaux jours devant eux. Quand Panda oublie une bonne dose de sites spammy, ça donne une petite piste.

    Et comme c'est si bien dit dans l'article "Google va chasser ceux qui trichent trop, perdus au milieu des autres, ceux qui trichent un peu moins." --> Tout est dit !

  31. Hugo

    Effectivement on voit bien que google n'a pas l'intention de faire une épuration systématique, il faut dire que son CA dépend beaucoup des terrains de jeu gris.

  32. Domi

    Il y'a certainement un intérêt à utiliser les nouveaux leviers SEO de google mais il est clair que perdre de vue le netlinking et le SEO qualitatif serait totalement stupide.
    Ce qu'il y'a de plus inquiétant dans les mises à jours de google, c'est surtout les SERPs personnalisés qui multiplient les facteurs de référencements.

  33. Tyseo

    Mais ou va donc Google ? La ou est le profit of course.
    Et si plus de profit passe par un nettoyage manuel des SERPs quitte à outrepasser la sacro saint algorithme qui fonctionnerait en autonomie et à insérer des interventions manuelle, alors le pas est déjà franchi (et depuis longtemps).
    Don't be evil qu'ils disaient !

  34. Micka

    Si Google souhaite mettre en avant l'aspect social, c'est justement pour baisser l'importance du netlinking. Le netlinking, on peut le contrôler. Le partage "social", c'est une autre histoire...

  35. Sylvain Richard - AxeNet Auteur de l’article

    Me voici un petit peu après les premiers commentaires pour donner mon avis.

    J'abonde totalement dans le sens de BeTrash_seo sur la difficulté que Google aura encore en 2012 à se dépêtrer du spam.

    Je pense pour ma part (comme Micka) que Google doit pouvoir "relativiser" le linking d'un site avec le partage social, et je pense fermement qu'il est bien plus difficile de falsifier celui-ci que le linking.
    A mon avis, c'est la meilleure option que Google a pour contrer le BH. Une vraie caution humaine et gratuite de surcroit !

    Margé tout, Google ne peut se permettre de mettre à la trappe une page qui n'aurait pas cette caution sociale. En revanche, l'algo peut très bien prendre plus ou moins en compte ce paramètre en fonction des thématiques.

    Je crois sincèrement, qu'un SEO ne peut pas se permettre de négliger cet aspect. Reste que parfois, selon la structure du client, cela risque d'être difficile à mettre en place, mais ce sera comme d'habitude, les gros finissent toujours pas écraser les petits s'ils le souhaitent, ça ne sera pas pas plus injuste qu'avant.

  36. Eric

    il est clair que se mettre dans le réseau social pour departager des sites est astucieux de la part de Google
    et va permettre de pondérer le système de liens.
    Qui est deja bien falsifié par les SEO powered

    mais sur les réseaux sociaux il est assez facile de truquer
    regardez donc les comptes qui suive le compte twitter du Figaro....
    on dirait qu'il y a du BOT, pareil pour les autres journaux

    sur FB il est possible facilement de monter des pages avec 100 000 fans en un mois
    pour GG + ce sera un peu plus difficile, il est partout, et la vérif des comptes par numéro de portable est quand même bien restrictive.
    Mais il y a moyen encore de gruger....

    Pourquoi ne pas se mettre directement a faire du réseau social de qualité en prenant en compte les internautes, cela durera plus longtemps au moins .

  37. Sylvain Richard - AxeNet Auteur de l’article

    @ Eric
    J'en reviens à la difficulté de falsifier.
    Des followers twitter pourris qui n'en sont pas, Google est tout à fait capable de les identifier.
    Un jour Google sera même sans doute capable de minimiser voir pénaliser les liens twettés par ces comptes.

    Pour Google plus, ce sera encore plus facile

    Pour FB, ils trouveront sans doute un moyen, c'est plus facile que de combattre le spamindexing.

    Bon, comme dit Renardudezert, il faudrait que GG comprenne déjà qu'on ne peut pas commenter 500 blogs en 5 minutes...

  38. nalex

    De toute façon a chaque système il y a une faille à chaque parade il en résulte une nouvelle parade, ce n'est que le jeu du chat et de la souris mais bon est ce que le jeu en vaut toujours la chandelle c'est à voir...

  39. Dommadey

    Mince, j'avais loupé ce "scrap report", ça sent pas bon pour le travail mal fait ou l'acharnement. Un groupe de référenceurs pourrait tout à fait spammer google pour lui donner de fausses indications. C'est un nouveau levier NSEO.

  40. QuelleCompagnie

    Le sacro-saint problème de la pertinence des résultats...

    Imaginons un article pointu publié par un universitaire brillant mais qui ne connaît rien au SEO.

    La page n'est pas optimisée, n'a pas de bouton "j'aime" ou "tweet", n'a que des liens sortants et, qui plus est, l'article "cite" de larges extraits d'autres pages (ce qui est courant dans les travaux universitaires) mais peut poser un problème du contenu dupliqué.

    Malgré sa qualité éditoriale, cet article aura-t-elle encore une chance d'être remonté dans les serps de Google ? Sans doute de moins en moins.

  41. Excel Net Cannes

    J'aimerais avoir un Google propore axé sur la qualité de contenu, mais je crois que je rêve.

    J'ai toujours eu du mal avec le black hat car j'estime que ça ne marche qu'à court terme. Cependant pendant que les sites vont et viennent à court terme, le site 100% white lui ne bouge pas et reste coincé dans les serps.

  42. Sitenco

    Très bon article et vive les BLS !

    Bon sur ce je vais faire tourner SENUKEX, non je rigole,.. enfin 🙂

    C'est clair que les BLS resteront les critères majeurs pendant encore un certains temps.

  43. Joana

    Ton article est vraiment pertinent, et explore des pistes longtemps abordées.
    J'aime ton point de vue et je suis assez d'accord avec toi.
    Google peut présenter des lacunes c'est vrai, mais c'est dans son seul intérêt ; ce que recherche Google dans sa stratégie, c'est simplement d'optimiser ses propres résultats.
    En tout cas, j'attend avec impatience un nouvel article de ta part.
    Bonne continuation à toi !

  44. Chris

    Effectivement je pense qu'il était inévitable que Google se tourne désormais vers les réseaux sociaux pour "départager" les réputations des sites, encore un facteur à prendre en compte pour les référenceurs...

    2012, on garde le cap ! 😉

  45. BeTrash

    @Mat : Qu'entends tu par modération ? Malheureusement, dès que la ligne est franchie, si tu te fais attraper, le tarif sera le même. Pour le reste, je te rejoins, la recherche personnalisée a de quoi inquiéter, mais heureusement, en France, surfer connecté à son compte Google est plutôt marginal.

    @Davidc1 : C'est vrai, ça fait un moment. Juste comme une impression que cela devient un des leviers majeurs !

    @Olivier : Panda n'attaquait pas les MFA. Le MFA fonctionne et fonctionnera encore longtemps : il visait plus les aggrégateurs. La bouillie, la bouillie... Google ne sait pas lire, il sait juste reconnaître une sémantique ;).

    @Agence Solution : Fraîcheur, oui, mais que sur certaines thématiques sur lesquelles c'est applicable. Et puis la fraîcheur, comme son nom l'indique, ça ne dure pas :P.

    @Wilfried : J'espère que la galette a été bonne :P. Et oui, avoir un site de test, c'est important !

    @JulienC : C'est vrai qu'en France on est pas toujours très cools avec ce pauvre algo..

    @Marie : Il n'aime pas les abus, comme toujours.

    @Yvan : C'est l'jeu ma pauv' lucette, à trop tricher, il faut prendre en compte l'idée de perdre.

    @Marie France : Oh je ne m'inquiète pas pour eux, ils doivent connaître la majorité des critères, ainsi que le fonctionnement global. Les implantations de petites subtilités doivent parfois être oubliées il est vrai :D.

    @Xavier : Bien entendu, ce n'est que mon avis. ^^

    @Thomas : Il est vrai, mais je le répète, Panda visait un secteur particulier du web, les scrappers et compagnie.

    @lereferenceur : Là, on est d'accord, les services made in Google sont très bien mis en avant, notamment shopping. Pour Maps, je suis obligé d'y voir une utilité sur certaines requêtes. ^^

    @Gwaradenn : Je te rejoins, et suis heureux que tu me rejoignes :D.

    @Michaël : On fait toujours attention, entre autres aux coups de bambou 😛 !

    @Djolhan : Là, je ne suis pas du même avis que toi ; la force du BH, c'est de faire pointer les liens crades vers ailleurs, ou de les rendre propres.

    @Affiliation rencontre : Merci ^^ ! Et sinon, oui, mon hébergeur est dans les choux.

    @Référencement grenoble : exact. Mais une quantité vers de la qualité et/ou mélangé à de la qualité, ça le fait aussi !

    @pansol : Je me rerépète, mais Panda ne visait pas les MFA ^^. Malheureusement, Google ne saura - peut-être - jamais vraiment lire, et il devra toujours s'appuyer sur d'autres signaux pour déceler un site créée uniquement pour quelques euros par jours.

    @sous location : Il y a des secteurs sur le web, où l'argent a tué la morale depuis bien longtemps ;).

    @olivier : Vrai, il y aurait certainement des spécialistes de chaque moteur, même si les bases seraient les mêmes un peu partout. Pour de la différence, il n'y a qu'à voir yahoo qui raffole de liens crades et de noms de domaines contentant des mots clés.

    @Fabien : Les résultats en white peuvent être très bons aussi, mais certains secteurs sont saturés, et malheureusement, il faudra sortir l'artillerie lourde.

    @Renaud : Très intéressante ta remarque, et il est vrai que toutes ces histoires de rel=author et compagnie tendent à confirmer ton idée. Cela serait une solution, ni meilleure, ni moins bonne. Se créer un profil utilisateur trusté sera là aussi faisable.

    @Thomas : Je comprends ton idée même si le début de ta phrase m'a troublé.
    Je te renvoie à ma réponse à Mat : surfer connecté reste marginal.

    @Vincent : Ta réponse est aussi très intéressante. Le social a son importance, on l'a vu avec des articles de blog qui montent tout seuls, je doute juste de la pérennité de ce critère : que vaudra-t-il lorsqu'un tool équivalent à LFE fera en automatique du Follow/Unfollow et RT sur 3000 comptes ?

    Pour le spam report, je pense que c'est juste un feu vert pour commencer à tracer un réseau.. et parfois ils voient tout, parfois une partie, parfois rien ^^ !

    Merci pour ton commentaire en tout cas !

    @Tony : La fraîcheur, encore une fois, ne dure qu'un temps ; je vois ça sur une requête qui concerne les jeux vidéos, en quelques jours, la première page peut être squattée par de l'actu, et puis, reprendre le cour normal de sa vie juste après (avec les sites "historiques" en place).

    @Cedric : Regarde ces deux offres :
    http://fiverr.com/twitter_retweet/increase-your-tweet-counter-by-giving-100-retweets-in-2-days
    et
    http://fiverr.com/kraemer/give-you-retweet-bot-so-you-can-auto-generate-50-retweets-for-your-message-per-day-without-having-to-retweet-others

    Tu as la qualité, et la quantité.

    @Bobby : Merci 😀 !

    @Tyseo : Comme toujours, entreprise privée : on se taît et on subit. A l'inverse, on les bernes, ils se taisent et ils subissent. L'avantage et l'inconvénient en un même lieu ;).

    @Sylvain : Sylvain, comme tu le sais, on en a déjà parlé, je reste dans l'idée qu'il y aura une possibilité de falsifier la notoriété de comptes ^^.
    Le logiciel TweetAdder donne de bonnes bases pour cela.
    Evidemment, cela va être difficile, mais regarde les deux liens là haut, tout s'achète, même du RT a notoriété..
    En tout cas merci à toi d'avoir commenté ^^ !

  46. Serge Daigneau

    Bon article. Ce qui me turlupine avec Google sont ses méthodes d'immixtion dans les SERP. Le dernier en liste est le module de cinéma qu'il impose lorsqu'on tape "Cinéma Pine", par exemple, dans Google Canada. Le bénéfice est qu'il donne rapidement les infos principales aux internautes. Le désagrément est que ceux-ci n'iront pas sur le site du Cinéma Pine pour combler ce besoin. Qu'en pensez-vous?

    Comme le module n'apparait pas tout le temps (en mode test probablement)et, que sur Google.Fr le résultat peut être différent, je vous fournis un lien vers l'image : Cinéma Pine

  47. Romain

    Je suis surpris de voir que personne n'aborde les microformats. Je les utilise régulièrement dans la sémantique XHTML des pages web que je crée, notamment pour ce qu'on appelle les reviews (avis des internautes). Au delà de l'influence "visuelle" que cela peut avoir dans les SERP, ça m'a déjà permis de grappiller quelques positions dans les classement.
    Je dis ça… Je dis rien.

  48. Jenny

    J'avoue que Google fait ce qu'il peut pour limiter la monter des BH, de protéger son business. Faut pas l'oublier quand même: Google est le moteur de recherche le plus utilisé sur la planète tout simplement parce que les internautes le trouve "fiable", "logique", "pratique".
    Donc si Google laisse progresser les BH, c'est son quignon de pain qui se fait la malle... Si vous suivez bien se sont donc les plus gros BH qui se feront disqualifiés du jeu...
    pour l'instant les petit et les moyens BH on de l'avenir. Du moins jusqu'à ce que Google mette au point un algorithme capable de les éliminer... ou qu'il soit remplacé par un nouveau moteur de recherche.
    En tout cas ce qui est sûr c'est que le SEO a encore de beaux jours devant lui!!!
    A+ =)

  49. j'ai oublié mon nom

    Mouais, dans la théorie Google voudrait effectivement pouvoir perfectionner son algo pour que davantage d'importance soit accordé à la satisfaction de l'utilisateur. Mais en pratique, c'est loin d'être le cas, les black hat ont encore de beaux jours devant eux et le netlinking est encore aujourd’hui même la clé pour se positionner. C'est pas parce que l'on a des milliers de fans Facebook, même actifs et participant aux conversations qu'on va mieux ranker qu'un référenceur BH qui fait tourner ses scripts toute la journée.

  50. Nicolas

    A quand un vrai réveil de google d'ailleurs. Je dis pas quand que j'en ai envie, ça nuirait un peu à mes activités, mais sérieusement... Le BH utilisé à petites doses peut vraiment faire des merveilles et pour si peu de risques. Il est clair que les mailles du filet google sont bien trop large pour choper les 99% des petits blogs.

  51. Ioana Radu

    Tres interessant cet article. Effectivement, ce sera interessant de suivre l'evolution des reseaux sociaux et la facon dont Google va utiliser ca pour juger la pertinence des pages.

  52. Mickael

    Je ne suis pas d'accord avec la réaction de Communiqué de presse gratuit. Je pense que le black hat a peu de jours à vivre

  53. Hugonnet

    Passionant cet article: depuis bientôt dix ans d'analyse personnelle, je pensais que la sémantique et la pertinence des informations avaient toujours pignon sur rue dans les résultats de recherche. Force est de constater que les choses évoluent et que Facebook constitue vraisemblablement (mais dans quelle mesure) un des paramètres décisif de l'algorithme de Google. Entrer directement le nom de votre site et jugez-en par vous même : edifiant !

  54. Julien

    Bon si j'ai bien compris on peut continuer à tricher gentiment avec google (white hat) sans craindre de représailles. Dans ce cas je vais continuer mon travail de référencement en utilisant es "best practices".

  55. branquignol

    Agence Referencement offre des solutions de référencement avec des tarifs 10 à 50 fois moins chers qu’un référencement commercial, et est spécialisée dans le référencement de site internet en première page, et ce, d’une façon durable.

    Edit AxeNet : il est assez incroyable de voir des agences SEO venir en spammer d'autres à la bourrin.
    Donc suppression de l'url de signature, et remplacement par une autre plus appropriée 🙂

  56. Lionel

    Bonjour,

    J'ai toujours pensé que Google donnait trop d'importance à son algorithme, à sa capacité de contrôler tous les critères permettant de déterminer les bonnes des mauvaises pratiques.

    amicalement

  57. Sylvain Richard - AxeNet Auteur de l’article

    @ Lionel
    Trop d'importance à son algorithme ??
    A moins d'embaucher 1 million de personnes pour contrôler une petite partie des sites créés ou modifiés chaque jour, je ne vois pas trop comment Google pourrait faire, si ce n'est tenter de toujours l'améliorer (l'algorithme).
    Bref, les BH ont encore de beaux jours devant eux...

    Remarque, là ou GG pourrait s'améliorer, c'est en embauchant des BH 🙂

  58. Lionel

    Salut Sylvain,

    J'ai du mal m'exprimer mais c'est exactement ce que je voulais dire !

    Même en embauchant des BH (je pense que cela est déjà fait depuis bien longtemps), Google va encore s'améliorer mais ne peut pas atteindre la perfection SEO.

    Je trouve que Google réalise un travail fantastique malgré toutes les critiques mais rien n'est infaillible sur cette terre.

    Les BH ont effectivement de beaux jours devant eux. D'ailleurs sans eux, le référencement naturel serait très ennuyeux.

    amicalement

  59. webncie

    Juste une petite question par rapport au scrap report de GG . Si quelqu'un (de disons de mal intentionné ...) envoie un scrap report sur un site X et que ce scrap report s'avère faux et que GG décide de ne rien faire . Ne peut-on pas imaginer que ce site X restera "fiché" chez GG comme site à surveiller tout de même ?

  60. Carine

    Bon article, notamment le passage sur l'importance de l'utilisateur dans l'évaluation des sites web par Google qui me semble être un point clé encore mal intégré par les marketers français. Dommage que quelques fautes d’orthographe et de grammaire se soient glissées dans l'article 😉

  61. Sébastien

    On en revient toujours au même point : triche, triche beaucoup si tu veux, mais triche intelligemment. ^^
    Quoi qu'on en dise, je trouve que Google progresse. Il y aura toujours des moyens de tricher, mais ils deviennent moins simples donc le nombre de personnes les employant diminuent. Oh, oui, il en reste beaucoup, mais il faut comparer au nombre total de sites web. Donc il y en a peu. ^^

    Ca devrait aller en 2012 comme en 2020 pour ceux qui réfléchissent, s'adaptent, bossent et sont malins. C'est plutôt les gros crado/mauvais que Google chassent. Les autres, il sait déjà qu'il ne les aura pas.

  62. Erwan

    Merci pour cet article et j'aimerai connaitre un petit peu plus ton point de vue sur la partie utilisateur social et notamment l'achat de likes, +1, followers...?
    Tout le monde s'indigne concernant cette pratique, qui est c'est vrai loin d'être morale, mais c'est exactement le même principe que lorsque les sites ont commencé à acheter des liens auprès d'agences de référencement.

    Je me demande si Google ne se tire pas une balle dans le pied en jouant sur la personnalisation accrue des résultats avec une complexification pour l'internaute lamda qui risque de s'y perdre et au final vouloir abandonner ce moteur au profit de bing ou autre. L'autre risque étant selon moi une ouverture plus simple à la manipulation de l'algorithme en visant justement des profils google+ qualifiés (localisés, influents...)

    Merci d'avance de prendre le temps de répondre.

Partagez sur :

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *