Depuis toujours, Google communique sur la qualité de ses résultats, sur leur pertinence, sur la qualité de l'expérience de l'utilisateur qui utilisera son moteur.
Globalement, Google n'a sans doute pas tort. Son moteur de recherche est plutôt bon et on trouve souvent ce que l'on cherche en première page. Mais dès que l'on creuse un peu...
Parce que je vais parfois au-delà de la première page pour ma part (et je ne pense pas que seuls les référenceurs fassent cela), je trouve parfois des résultats plus étonnants, et le me dis dans ce cas "Mais qu'elle est l'utilité de ces résultats pour un utilisateur ?".
Plutôt qu'un long discours, j'ai plutôt pris le parti de vous montrer des exemples concrets.
Réponses multiples
Lorsque je tape "pyjama bebe" et que j'affiche la 2ème page, voici les résultats (que j'avais au moment de ma recherche, ils viennent de changer hier samedi). Alors bien sûr, je suis content pour ma cliente (même si je préfèrerai largement une réponse en première page), mais je me demande bien en quoi le fait de proposer 5 résultats du même site est très utile à l'utilisateur !
Il m'aurait semblé plus judicieux d'afficher uniquement la page de la rubrique"pyjama" de ce site, et de proposer d'autres réponses en provenance d'autres sites pour que l'utilisateur puisse faire son choix.
Toujours des réponses multiples
Cette fois, c'est en 3ème page de résultats que je m'aventure (je sais, je suis super téméraire!).
Alors là, c'est le pompon ! Je ne remets surtout pas en cause le talent de @romain en SEO, mais je m'interroge franchement sur la pertinence de Google.
8 réponses sur 10 me présentent le même site ! Matt, toi qui m'assènes perpétuellement la même rengaine sur la qualité, ne penses tu pas que c'est la qualité des réponses de Google qui fait défaut ici ? Ne penses tu pas qu'il y a des centaines d'articles publiés bien plus interessants sur cette entreprise ?
Des sites auxquels je n'accorderai pas forcément ma confiance.
Amusons-nous maintenant avec une requête que tous les possesseurs de blog connaissent tant ils ont été spammés de commentaires avec cette ancre "Nike tn requin"
Google sait à quel point son influence est forte pour le commun des mortels. Pour nos parents, si c'était écrit dans le journal c'était vrai, pour nos enfants, si c'est écrit dans Google, il en est de même. On sait que les internautes accordent une très grande importance aux premiers résultats d'une recherche.
Et bien sur toute la première page de résultats, je vous défie de trouver un site sur lequel vous aurez le courage de donner votre numéro de carte bleue. D'ailleurs, impossible de trouver un seul site proposant une adresse physique ou des conditions générales de vente.
Et après cela, Google, le commun des mortels devrait avoir confiance dans tes résultats ?
Pour les plus filous, regardez les backlinks de la plupart de ces sites, c'est une excellente formation aux techniques de spamindexing.
Des résultats affichés inutilement
Vous le savez, Google nous invite, au travers de son site de conseils aux webmasters, à utiliser le fichier robots.txt pour lui indiquer que nous ne souhaitons pas que certaines de nos pages soient crawlées. Le pire des sous-doués comprendrait donc que si nous ne souhaitons pas que nos pages soient visitées par les robots de Google, nous ne souhaitons pas non plus qu'elles soient indexées... logique !
Et bien Google s'en fiche pas mal. Il préfère nous afficher des résultats sans intérêt. Je suis donc assez surpris d'entendre sans relâche un discours sur la qualité des résultats lorsque je constate les pratiques mises en œuvre ensuite.
Et que dire de la duplication ?
Un petit dernier pour la route ? Je vais simplement vous laisser juges de l'application des conseils sur le contenu dupliqué... et accessoirement de l'imagination des journalistes ou de leurs employeurs.
En conclusion
Doit-on considérer les exemples que je vous ai donnés comme des exceptions ? Sans doute. Mais sans chercher beaucoup, on trouve quand même des millions (milliards?) de ces exceptions dans les résultats de recherche de Google.
Si ce moteur a fait des progrès fantastiques depuis sa création, on se rend compte que le chemin à parcourir reste encore très long avant d'arriver à l'excellence.
Pour les référenceurs, le gouffre entre les recommandations données par Google et la réalité des résultats constatés a de quoi laisser dubitatif *.
Je m'étais laissé aller à une parodie d'interview de Matt Cutts il y a quelque temps. Elle décrit, je crois, assez bien cette forte différence constatée entre le discours et les constats que nous faisons tous les jours.
Allez Google, continue tes efforts (en oubliant parfois ta première activité de régie publicitaire), et tu verras, un jour ton moteur présentera les résultats de qualité que tu nous demandes de fournir, un jour...
Edit :
- Suite à un tweet de @laurentbourelly : En anglais - Google passe t-il son propre test de qualité ?
- Mise en avant de l'exemple donné par Maxime sur la reqûete "formation zennoposter" ça c'est du choix dans les résultats 🙂
- Suite à un tweet de @elannu, les 34 premiers résultats vers le même site sur la recherche situcherches.com (n'importe quoi !)
- Une petite merveille sur la requête "achat bijou femme pas cher" 9 fois le même site sur la première page !
* Je me bats actuellement avec du "unatural inbound links" et des demandes de re-examen" sur un site ultra pertinent et propre, et les écarts entre le discours et les pratiques de Google me font voir rouge. Plutôt que de casser les pieds à de vrais sites utiles, je me dis que les quality raters devraient parfois regarder la poutre dans l'oeil de Google que la paille dans le mien, ce qui explique cet article.
Jolie synthèse des contradictions les plus patentes de Google, avec une différence impressionnante, mais bel et bien réelle, entre le discours officiel et la réalité des faits.
Le coup du robots.txt est à mon avis le plus gros bras d'honneur fait aux webmasters par le moteur qui prétend agir pour le bien. En effet, il joue sur les mots quant au standard de fait, prétendant qu'il respecte bel et bien celui-ci, dans la mesure où les pages ne sont pas parcourues par ses robots, tout en ajoutant celles-ci dans son index, jugeant celles-ci pertinentes pour l'Internaute.
Du coup, il devient tout simplement impossible de ne pas faire indexer une page de manière passive, à savoir une manière neutre pour le serveur, sans avoir à subir des requêtes inutiles ed la part des robots d'indexation. En effet, il faut soit ajouter les entêtes HTTP proposées par Google en amont des contenus servis, et donc répondre aux requêtes formulées par les robots, soit les entêtes HTML équivalents. Dans un cas comme dans l'autre, l'empreinte du passage d'un robot est sans commune mesure plus lourde qu'un fichier robots.txt lu tous les deux jours à la racine d'un site.
En revanche, concernant la duplication, l'exemple donné est caricatural, puisqu'il réclame explicitement les pages au contenu identique, compte tenu de la suite réclamée. J'avais déjà dénoncé (si, si), auprès de Google, l'inefficacité de ses algorithmes, voyant des actualités légitimes initialement publiées sur un site à fort niveau de confiance, forte notoriété et concernant sa propre actualité (je parle ici de Battle.net, et tout le monde en conviendra, c'est la source à privilégier pour ce qui est des annonces officielles des jeux vidéo Blizzard) se faire doubler par des dizaines de sites parasites reformulant juste les phrases, mais exploitant un netlinking à base de contenu dupliqué surréaliste, autant de par sa simplicité (agrégation à l'identique sur des dizaines de sites web) et d'efficacité (noyage de l'information d'origine).
On peut toutefois noter ici que la source de l'information, l'agence de presse Reuters est absente des résultats, alors que, contrairement à l'AFP, elle publie bel et bien ses dépêches en ligne.
Maintenant, un bon référenceur se doit tout de même de connaître les conseils imposés par Google (parce que bon, en France, Bing, on s'en moque comme de l'an 40, limite autant que d'Altavista ; ceci dit, ce sont globalement les mêmes...) et les interpréter à sa manière, à sa façon, pour les intégrer à sa stratégie d'optimisation, qu'elle soit appliquée au site, ou à son réseau de liens entrants.
Sous prétexte que Google soit un monopole de fait, et qu'il impose des règles dont il refuse de communiquer clairement le contenu, se contentant de choses vagues, voire contradictoires, ne doit pas nous empêcher de nous focaliser sur un point essentiel : l'Internaute. C'est lui que nous cherchons à attirer avec, j'espère nous tous ici, de la qualité.
Non ? 😉
L'exemple donné concernant les sites vendeurs de "tn requins" est proprement hallucinant. Si de tels sites spammant des blogs, sans se cacher, en utilisant toujours les mêmes ancres, et en anglais qui plus est arrivent à se positionner sur leurs mots clés principaux, ça me laisse à penser que Pinguin et Panda ne sont peut être finalement que de la poudre aux yeux, Google est loin d'avoir trouvé une réponse efficace contre le spamdexing et se contente d'agiter un épouvantail 2.0 destinés aux reférenceurs trop entreprenants...
Il est difficile pour Google de comprendre le contenu. Difficile pour lui de juger quel texte est de meilleure qualité.
J'ai le cas actuellement avec un tutoriel sur le site du zéro. Un mini tutoriel SEO vieux de 3 ans pas du tout à jour qui survole quelque concept SEO sans parler de contenu de mots clés, de netlinking, etc... bref ce n'est pas un tuto SEO. Il ressort en premier sur Google sur la requête "tutoriel référencement".
Le problème c'est que 2 autres tutoriels existent sur le même site, qui ont quelques mois et bien plus complets, bref de vrais tutoriels. Eux ressortent que sur "Plus de résultat sur site du zéro". Du coup la plupart des utilisateurs se retrouvent sur un tutoriel qui ne sert à rien.
Bon après en travaillant le netlinking je pense qu'il sera facile d'inverser la tendance, du moins je l'espère, car la 1ère page d'un big tutoriel sur le site du zéro n'est composé que de l'intro et du plan du tutoriel, alors que le mini tutoriel ne possède qu'une page, tous le contenu (tous le tutoriel donc) est alors sur la même page et Google aime ça. Il aime le contenu.
Comme quoi même en 1ère page et en 1er résultat Google peut sortir de la merde. Mais dans mon exemple dur dur de lui en vouloir. Seul un humain pourrait faire la différence, je pense.
pour le duplicate content j'ai écrit récemment un article "Comment prendre le controle d'une nation"
Cet article a fait un mini buzz et a été dupliqué dans une dizaine de sites, certains avec un lien retour d'autres non
Et bien quand on fait une recherche sur big G, mon site n'apparait nulle part dans les Serp
bref le duplicate content n'a pas l'air de poser de probleme a big G
et lorsqu'ils disent qu'il suffit d'écrire du bon contenu, je dirais mon c.. ouais
J'ai eu aussi des résultats très étonnants. J'avais il y a un mois les 9 premières places sur la requête "licence pro adultes industries alimentaires". J'étais tombé dessus par hasard dans la liste des mots clés dans analytics. Certe c'est très très rarement saisi, mais bon les 9 premiers résultats c'est impressionnant.
Ce matin il n'y en a plus que 4...snif snif
Entièrement d'accord avec ton article. Je trouve que plus çà va, plus la qualité des sites mis en avant par google se dégrade.
Après tout çà ne m'étonne pas, c'est même logique et en accord avec le fonctionnement de google, puisque finalement, même avec un site de très faible qualité, il suffit de payer pour se retrouver en tête des résultats.
Ça n'aurait jamais du pouvoir être possible avec un moteur de recherche qui se préoccuperait de la qualité des résultats, puisque la différence de couleur entre les publicités adwords au dessus des résultats naturels et les résultats naturels eux mêmes est tellement ténue (pour ne pas dire inexistante), que pour 99 % des internautes le bloc adwords fait partit des résultats naturels.
Google ne fait rien, bien au contraire, pour les différencier, par exemple en utilisant une couleur bien distincte, et en annonçant clairement que ce bloc est de la publicité.
Donc pour résumer à partir du moment on un moteur de recherche, à condition que vous le payez grassement, est près à faire croire aux internautes que votre site, dont la qualité en terme d'informations est quasi nulle, est en tête des résultats naturels (synonymes de qualité pour les internautes), plus rien ne m'étonne.
Ton article et tes exemples sont très pertinents, de quoi mettre une bonne claque à Google...
Par curiosité je viens de comparer avec Bing, j'ai l'impression que les sources sont beaucoup plus diversifiés (pas forcément plus pertinent par contre, à vérifier ?).
Bon, je n'achèterais toujours pas de Nike TN sur la première page, mais je n'en aurais pas acheté de toutes façons...
Je suis alors mais TOTALEMENT d'accord avec ton billet Sylvain !
Google commence à nous les briser menu avec ses conseils à la noix, tout le monde sait que la qualité est un prétexte puant pour augmenter le ÇA de la régie publicitaire.
Google teste des serp à 5 résultats, le reste est bourré de pub... Il en a pas grand chose à faire de l'intérêt de l'internaute.
Une solution toute simple pour arrêter définitivement le spamdexing et proposer de la "qualité" : tester les serp à 0 résultats, avec que du Adwords.
C'est plus rentable et contrôle total de la qualité. Je plaisante, mais je crois peut être pas si bien dire #gueuledebois
Bref, Google est un bon moteur, mais qu'ils arrêtent leurs conneries et qu'ils soient plus responsables avec les acteurs économiques, parce que depuis quelque temps, difficile de savoir si c'est du lard ou du cochon.
Hello
Moi aussi j'ai le même constat : le résultat naturel de Google devient de plus en plus imbuvable.
Sous prétexte de vouloir (ou de croire savoir) proposer un résultat personnalisé et en adéquation avec le profil de chaque internaute, Google est en train de se noyer dans un rendu qui laisse pantois plus d'un.
Tu donnes l'exemple frappant des URLs sensées être interdites par robots.txt et ça me blase tellement que j'ai pas encore réfléchi à combattre leur présence dans les SERP.
Au passage, quelqu'un aurait une solution simple pour ne pas qu'elles soient listées ? Un mélange de robots.txt et de noindex ne marche pas. Et si on oublie le robots.txt pour privilégier le noindex, cela nous oblige à aller dans le coeur du site pour positionner cette balise, ce qui est très casse-gueule et intrusif.
Il est clair que ça déconne fortement depuis quelques jours.
Il ne faut vraiment pas longtemps pour s'apercevoir que la qualité des résultats a baissé.
Ils savent tout à fait ce qu'ils font.
Pourquoi font-ils ça ???
Je pense que nous savons tous nous pro du net que penser du discours de GG et de ses têtes pensantes. Google essaye de masquer tant bien que mal les lacunes de son algo par des discours. C est à la fois pathetique et rassurant certaines techniques ont encore de beaux jours elles 😉
J'ai déjà remarqué à quel point Google ne respecte pas robots.txt (ou le meta no-index). Les redirections 301 au niveau serveur sont la seule arme qu'il nous reste pour que Googlebot respecte nos directives.
Le manque de diversité est une tendance récente et très inquiétante, qui ne touche pas que les pages 2-3 des résultats (voir l'exemple proposé il y a quelques jours par @alexaloola), mais semble plus fréquente sur des requêtes à moindre concurrence. C'est comme si le trust accordé à un site sur une requête dépasse d'autres facteurs de pertinence pure qui permettraient à d'autres sites de ressortir...
Excellent article et même s'il n'est basé "que" sur des exemples, je les trouve très représentatifs de la réalité. Et je crois que nous référenceurs, ne sommes pas les seuls à avoir remarqué ce manque de pertinence dans les résultats de Google : il n'y a qu'à voir Mincrosoft qui vient de lancer son "Bing It On" permettant de comparer les résultats entre Google et Bing pour une requête donnée.
Cette attaque menée de front démontre bien le sentiment de supériorité chez Microsoft en terme de pertinence des résultats !
Espérons que Microsoft reste aussi agressif et continue d'améliorer la pertinence de ses résultats pour, qui sait, peut-être revenir à une situation plus équilibrée et sortir de cette "Google dépendance" !
D'ailleurs, je viens de voir que Bing It On redirige maintenant vers Bing en écrivant mon commentaire : ça fait longtemps ?
Bon article qui note bien que Google n'est plus aussi pertinent qu'avant. La faute à ses animaux ?
Pour le robots.txt, il va falloir faire un peu de cloacking sur les dossiers pour éviter qu'il ne les indexe 🙂
A moins que la (nouvelle) tactique de Google ne soit de proposer des résultats naturels de moins en moins pertinents afin d'augmenter les clics sur les Adwords. Je sais, j'extrapole mais avec lui on peut s'attendre à tout.
Je me souviens du bagde demandant d'utiliser Firefox au détriment d'Internet Explorer que l'on trouvait sur de nombreux sites. Faudra t'il faire de même avec Google ? J'ai lu pas mal d'articles (hors SEO) sur Google ces derniers jours. Ce qui m'a frappé le plus, c'est le mécontentement des gens dans les commentaires. Ils commencent à saturer à propos de Google.
Entièrement d'accord avec ce qui a été dit, Google propose pas qu'un peu des résultats très loin d'être satisfaisants, je trouve la MAJ Big Foot très loin d'être pertinente et la page de résultats sur la requête Nike TN est une grande blague ! J'ai également eu un site de pénalisé alors qu'il était super clean autant sur le contenu que sur les liens externes, pourtant d'autres sites "dégueulasses" (désolé pour le mot), autant en interne qu'en externe, s'en sortent très biens !
Je viens de faire le test sur Bing avec la recherche 'pyjama bebe" et effectivement bing bourrine moins que GG et il semble que les résultats sur Bing soit moins redondant , de la a dire plus pertinent je ne m' y aventurerais pas 😉
Encore une fois Google nous prouve que sa situation de monopole lui permet de faire ce qu'il veut : "Faites ce que je dis et peut être que je prendrais en compte".
Depuis Penguin je vois de plus en plus souvent les sites d'autorités prendre un gros avantage (entendre prendre toute la première page) sur de petit site de bien meilleur qualité.
Google tue ainsi la diversité qu'apporte le web en favorisant les gros sites présents depuis longtemps au détriment des nouveaux qui essaye d'apporter des informations vraiment qualitative par rapport au mastodonte de leur secteur.
Pire encore ces sites dit d'autorités dans leur domaine, savent bien que Google leur fait les yeux doux et se permettent sans se cacher de mettre en place toute les techniques interdites par Google :
- reprise de texte d'autre site : bas oui pourquoi ils s'embêtraient à faire du contenu unique vu qu'ils y en as partout et qu'ils peuvent le reprendre sans soucis et bénéficier de leur autorité pour passer ou rester devant les petits sites sur leur propre texte !!!
J'ai des exemple de MFA où les textes sont repris par de gros site ecommerce sans soucis, normal quoi.
- cacher de nombreux liens dans du texte : là plusieur technique sont possible : text-indent en css, lien de la même couleur que le texte (bonjour lemonde.fr)...
- keyword stuffing
- big footer avec des centaines de liens liants tout les sites de leur réseaux (splog)
Si on prend en compte le fait que sur certain requête Google afffiche maintenant 7 résultats en compte la présence de ces propres sites (Adword, Gmap, Google+, Google Shopping..) on va vite se retrouver avec des résultats de plus en plus pauvre 🙁
@Antonin pour Bing It On ça fait quelque semaine seulement 😉
Voici un article qui résume bien les griefs que j'émets souvent à l'égard de Google : le non respect par lui même des règles du jeu qu'il impose aux webmasters.
Pour ma part, je pense que toute cette communication tout azimut de Matt Cutts sert à masquer une certaine incapacité actuelle à faire face au spamindex, par exemple.
Raison pour laquelle on retrouve ces erreurs dans les SERPs que dénote Sylvain.
Alors, la solution la plus facile, c'est toujours plus de pression sur les SEO afin de semer la panique.
Autre chose : j'ai aussi lancé sur Google la requête "pyjama bébé".
Le plus affligeant maintenant, c'est non seulement le grossissement des caractères, mais aussi le fait que les liens commerciaux occupent la quasi totalité de l'écran au-dessus de la ligne de flottaison.
Et pourtant, que nous ont-ils pas dit sur la quantité de publicités dans cette partie de page ?
Bref, tout va à vau-l'eau...
google n'a pas besoin d'outsourcing, nous travaillons tous pour lui et c'est quelqu'un d'autre qui nous paye...
On en a parlé dans un forum il y a quelques jours, la recherche "annuaire vitrier" retournait 14 pages successives (oui oui, j'ai bien dit pages et non pas résultats) du même site ?!?
Aucune description unique, aucune phrase, succession de mots clés répétés sur chaque page.
Aujourd'hui, GooGle semble avoir pris en compte le problème et renvoie ... à nouveau des centaines de réponses mais d'un autre grand annuaire. A quoi bon ?
Il n'y a qu'un site par jour qui est susceptible de répondre à cette recherche ?
Et d'un jour sur l'autre, le "bon site" est différent ?
Dans un domaine aussi concurrentiel, je ne comprends pas la pertinence de retourner en boucle un même site.
C'est toute la richesse d'internet ces milliers de sites qui traitent d'un même sujet avec des contenus différents.
Aux moteurs de recherche de les trouver mais à l'utilisateur de choisir celui qui l'intéresse.
Ce n'est plus le cas actuellement.
Hi,
J'ai tendance à penser que Google classe des resultats par date de création. Pourtant le premier sorti n'est pas forcemet le meilleur.
J'ai testé cette semaine des requêtes dans notre monde du SEO.
Il y en a une qui était croustillante : "positionnement google".
En fin de PREMIÈRE page tu as un site avec seulement du LATIN et strictement rien dans le contenu qui concerne le seo ou le positionnement google, même pas le TITLE.
Seul le nom de domaine comprend la requête !
Bravo la pertinence et la prétendue qualité des résultats de l'Empire !!
Marrant ton article, je me suis fait la même réflexion plusieurs fois (sites dupliqués dans la SERP) mais particulièrement hier soir. Je suis premier de la page 2 sur une requête pas mal concurrentielle et je me disais : mais pourquoi Google s'acharne à afficher 2 fois le même site en première page (le .com et le .fr qui sont totalement identiques). C'est vraiment lourd des fois, autant pour nous qui faisons du référencement mais encore plus pour les utilisateurs.
Il ne faut pas oublier que google utilise un algorithme applicable à l'ensemble des sites internet où les 5 premiers résultats vont capter plus de 80% des clics, donc il est probable que les ingénieurs cherchent avant tout à optimiser ces résultats; ensuite pour expliquer la faible qualité obtenue dans certains cas, il faut aussi comprendre que le monde internet correspond à un sport où les joueurs n'utilisent pas les mêmes règles c'est comme un match d'une équipe de ligue 1 (composé de référenceur) face à une équipe de DH (entreprise n'ayant pas pris en compte l'ensemble des règles de google). Il serait intéressant de mener une étude sur des mots clés n'entrainant pas de business (donc n'attirant pas les référenceurs et entreprise), à mon avis les résultats seront beaucoup plus pertinent. On pourrait donc en déduire qu'un monde sans optimisateur impliquerait une meilleure qualité des requêtes google.
Merci pour cet article. Cette dégradation se généralise carrément depuis quelques jours et on doit être nombreux à se demander ce que fabrique Google là! Ils nous ont promis une mise à jour majestueuse qui allait tout déchirer, et pour l'instant tout ce qu'on peut voir depuis début septembre ce sont des pages de résultats de moins en moins pertinentes...
Il y en a pleins des requêtes merdiques comme celle que tu présentes Sylvain ici...
Tu veux t'amuser un peu ?
Check "resultat euromillion" sur les page 1,2 et 3 mais c'est vraiment le bordel dans les SERPS en ce moment...Qu'on arrête de dire que la MAJ Pingouin est pour l'utilisateur et qu'on achète des actions Googles, ça sera moins hypocrite pour tous.
Recevoir un mail dans les GWT, votre site est pénalisé et aucune rentrée par le moteur GG ne vous engraissera, si vous souhaitez continuer à gagner de l'argent avec Google, acheter des actions, notre CA devrait être très bon au 4ème trimestre 😉
J'en ai marre de Google ! Je pense que ces résultats aberrants dans les SERPS vont de pair avec les tests grandeur nature auxquels GG se livre, à l'aide de ses Quality Rater : effet yoyo pendant quelques jours, l'algo analyse les résultats les plus consultés, et les QR vont au besoin finir le travail en validant ou non les URL affichés...
Pour mon secteur d'activité (la certification iso des entreprises) la duplication a été traitée depuis 4 / 6 mois.
Par contre la qualité des résultats de recherche est largement "polluée" par le fait que le moteur s'obstine à faire ressortir en premier de 99% des recherches Wikipedia alors que la page sur laquelle il nous renvoie est loin d'être la plus pertinente...
Mention très bien pour avoir ejécté les agregateurs de contenus, chapeau bas !
Par contre certains discussions de forums très interessantes n'apparaissent pas dans les 60 pemiers résultats....logique me direz vous, elles ont le tort de n'avoir pas fait l'objet d'un travail de netlinking (?).
Pfiou...les résultats "naturels"...
J'ai aussi remarqué que noindex + robots.txt interdisant le crawl et le référencement ne marche pas. Un de mes blogs "privé" est bien référencé quand on tape son nom dans google? Y -a-t-îl un moyen de le dexindexer totalement? En passant par GWT?
Google affiche encore un gros manque de pertinence sur certains critères comme le montre tes exemples. L'algorithme ne peut remplacer l'avis des humains d'où l'intérêt de prendre en compte les signaux sociaux sur certaines requêtes...
Ce coup de gueule est très semblable au sentiment que je ressent depuis plusieurs mois lors de mes recherches sur le célèbre GG. Mais plus encore qu'un coup de gueule il me semble nous avons nous SEO une force de frappe importante. En effet si chacun d'entre nous, nous décidions d'inciter nos utilisateurs à changer de moteur de recherche (loin d'être avantageux pour moi Bing n'étant pas motivé à indexer mes pages...) nous pourrions à nous tous ré équilibrer le marché de la recherche et donc inciter à la qualité de ceux-ci en re faisant apparaître la concurrence en France.
Utopie : Je rêve d'une énergie soudaine et fédératrice où nous (travailleurs du web) pourrions également rassembler nos compétences pour mettre en place un moteur de recherche à l'image des systèmes d'exploitations Ubuntu (par exemple) : Où la communauté partage son savoir faire, et où quelques sociétés soutiennent le projet grâce à l'émergence d'innovations. Un moteur de recherche de la francophonie à l'image de seznam, baidu, yandex...
Aïe, retour à la réalité 😉
Niveau techno et pertinence, les moteurs se valent.
Le problème de Bing est ailleurs comme je disais ici http://www.laurentbourrelly.com/blog/1005.php
Si Google bossait sur la pertinence des résultats dans les SERP plutôt que de faire la chasse aux sorcières au mauvais endroits, ce genre d'anomalie pourrait être evitées. Mais rassurez vous, dans quelques temps sur la première page vous n'aurez plus que les résultats des sites rachetés par la bande a Larry Page....
Bref pour les SEO Google c'est un peu le collègue relou qu'on deteste mais avec qui on est quand même tous obligé de bosser malheuresement !!!
La pertinence de Google fond comme neige au soleil, au profit de ses services payants. On peut ajouter d'autres éléments à ceux présentés dans cet article comme par exemple Google Shopping payant qui n'a aucune pertinence. On voit aussi apparaître de plus en plus de résultats Google+ dans l'espace de droite, alors qu'il est simple comme bonjour d'obtenir ce type de résultats pour occuper plus de place dans les SERP.
Il est plus que jamais vital de diversifier ses sources de trafic (newsletter, RSS, réseaux sociaux, sites référents, ...).
C'est assez effrayant. Je crois que l'analyse est assez explicite. Finalement à lire ces infos et les commentaires qui suivent, j'ai comme l'impression que Penguin c'était juste un bon vieux patch fait par un stagiaire qui a cherché les 1000 marques du CAC40/Dow Jones/ FTSE et que Google a fait passé devant pour donner l'impression que tout va bien.
L'irréprochabilité du géant commence à se faire sentir, en tout cas dans ce milieu très petit du référencement. Mais comme pour tout, Google a encore de nombreuses années avant que ça ne concerne le grand public. Et en faisant son lobbying sur les méchants du web qui font des sites inutiles, il ne fait que repousser son délai.
Salut les SEOs,
@Sylvain, super article. Je suis le blog AXE-Net depuis un moment, surement celui ou je prend le plus de plaisir de lecture.
@All, Ne soyons pas dupe, nous autres connaissont ces leaks de GG, nous les exploitons tous, ou tout du moins la majorité d'entre nous.
S'ils n'existaient pas, nous ne pourrions je pense plus vendre notre travail dit de "Référencement". Arrêtons de nous plaindre, car si un jour GG ou un autre, nous pondaient un moteur sans faille, nous n'aurions ( nous autre référenceur ) plus beaucoup de beurre dans nos assiettes.
@Mitmi.fr, tu parles surement du site violet, ceci dit cela nous apprend une chose, GG donne toujours autant d'importance au "NDD-Keyword include" ... Rien de nouveau mais toujours aussi drôle ce genre de sites classés sans aucun contenu ^^
Bonne journée à tous 🙂
J'ai déjà eu le problème des pages multiples pour le site d'un client. Ça a duré quelques semaines puis Google s'est chargé lui-même de déclasser la page qu'il trouvait la moins intéressante et m'a propulsé la plus pertinente en 1ère page. À mon avis, ce n'est qu'une question de temps avant qu'il ne t'arrive la même chose.
En ce qui concerne le fichier robots.txt, c'est justement devant cette inconstance et ce manque de fiabilité que j'ai arrêté de l'utiliser pour mes sites (et ce depuis un petit moment).
S'il y a des personnes qui hésitent encore sur la méthode à adopter pour réussir la non-indexation d'une page, je conseille la meta noindex. Je n'ai jamais eu le moindre soucis avec.
Ton exemple des chaussures requins m'a tout simplement déprimé.. 😀
Au delà de la laideur de ces pompes, ce qui m'a vraiment choqué c'est que le keyword stuffing contenu au niveau du TITLE de la page d'accueil n'a pas l'air de faire énormément réagir Google.
Comme quoi, on en revient toujours au même point : tout n'est qu'une question de backlinks...
Hello,
En effet, aucun intérêt à indexer les URLs non crawlées comme le signalait O. Andrieu ici : http://www.abondance.com/actualites/20120905-11842-au-sujet-de-google-et-des-robots-txt.html
"Et bien sur toute la première page de résultats, je vous défie de trouver un site sur lequel vous aurez le courage de donner votre numéro de carte bleue."
Défie tenu : je l'ai fait sur de l'adsence. Mais n'est ce pas le but ?
Ca va à être bientôt le bon moment pour qu'un concurrent de google pointe son nez. Par principe il devrait avoir de la promotions de mécontent.
Changez vos habitudes messieurs, dames, la pertinence Google n'est plus. Si le nombre de SERP diminue, c'est peut-être un aveu de perte de crédibilité dans les résultats proposés non ? Merci pour ces exemples flagrants. Ceci dit au niveau de la concurrence le poids du nom de domaine est bien trop important ce qui nuit également.
Et encore un excellent article qui dévoile la (les) face cachée de Google, l’impression que toutes ces modifications et MAJ du filtre Panda Pingouin et je ne sais quelle autre bestiole à l’avenir ne vise qu’a éliminer certains petits sites pour que tout, absolument tout reste entre les mains des grosses usines à gaz de contenu mais attention la qualité des résultats elle ne s’améliore pas la preuve les exemples sus-cités dans l’article allez Bing en fin de compte Google s’engraisse d’Adwords tu peut encore gagner ^^
Effectivement, certains résultats sont complètement aberrants du point de vue de la pertinente utilisateur.
Pour ce qui est du Disallow, je pense qu'il faut complêter par un NoIndex NoFollow bien senti même si je doute que cela suffise à arrêter le crawl.
Ahah tes exemples me rappellent bien le constat que j'avais fait concernant un de mes sites dédié à une application (devinerez-vous laquelle ?? Un indice est caché dans mon commentaire ^^).
Sur le nom de cette application : En page 1 j’étais en 2eme et 3eme position (derrière le site officiel) mais en page 2 j'avais 5 de mes pages qui sortaient et 9 en page 3.
Bon ok la requête en question n'est pas concurrentielle (en tout cas sur le marché français) mais de le voir ça faisait quand même un peu drôle. Bon je viens de regarder ce n'est plus le cas ... j'aurais du faire un screenshot à l’époque pour montrer le domination et mes "talents" de SEO 😀
Sans parler que SeoMoz a prouvé que certaines pages qui arrivaient en première position sur occurrences concurrentielles étaient des pages blanches complètement vides. Un peu bizarre.
Je le savais, je le savais qu'on allait revenir sur l'aspect pertinence de Google !!
Pour la peine je peux ressortir un de mes articles de Décembre 2010 http://www.renardudezert.com/2010/12/07/google-vider-la-corbeille.html ou je voyais déjà l'avenir du moteur un peu tel qu'il est aujourd'hui (mis a part la totalité de la première page en adwords :)).
Ça me fait plaisir qu'un article de ce type soit rédigé sur ton blog. Parce que bien sur, ce n'est pas la majorité des résultats dont il est question. Google reste encore devant ses concurrents à ce niveau la, mais comme tu le dis si bien a la fin de ton article, il serait temps de se concentrer vraiment sur ce qui fait que Google soit Google aujourd'hui : la recherche (et surtout la pertinence des résultats).
On refait un point dans un an ?
🙂
Je ne suis pas plus étonné que mécontent de voir quelques voix s'élever contre les pertes de pertinences de Google Search (on passe sur les pertes d'ergonomie et le reste). Perso, j'ai décidé d'utiliser Bing, d'abord en guise de protestation perso., et là je m'étonne de trouver des sites bien plus intéressants grâce à cela. La concurrence existe, mais elle ne fait pas peur à Google on dirait... à tort ou à raison.
il m'arrive de tomber sur des requêtes pourtant simples, mais où dès la première page je me dis WTF? la complexité de l'algo de Google qui pète un plomb...
ça me fait un peu de peine pour les ingénieurs qui doivent tenir une réputation et quand tu vois des trucs pareils tu te dis que finalement pour un seo le plus dur est fait par Google et toi tu appliques toujours les mêmes recettes quasiment.
@Funkynews: pouvez vous nous donner le lien du test de seomoz?
C'est bizarre, je me faisais ce genre de réflexion récemment.
Je cherchais un article situé dans la (très) longue traîne. Et bizarrement, après la première page, j'avais un peu n'importe quoi.
Mais ça fait quand même du bien parfois de voir que, même ils sont très bons, ils sont loin d'être parfait.
Très bon article, dans ce qui est cité ce qui m'exaspère le plus c'est les doublons et la multiplicité des réponses...Voilà un bon bad buzz pour notre cher ami Google
Juste un petit mot pour dire merci.
Mes (toutes petites connaissances en SEO) datent d'il y a deux ans... (un siècle ?)
J'ai appris pleins de trucs en très peu de temps ici.
Les résultats de bing me paraissent se rapprocher de plus en plus de ceux de google.
Bing souffre t'il des mêmes problèmes de pertinence ?
Je suis surpris que GooGle n'ait pas publié un communiqué pour répondre à tous ces problèmes qu'on est de plus en plus à constater ?
Il parait même que Barry Schwartz qui a ses entrées chez GooGle n'obtient plus de réponse de leur part (cf. l'article de arobasenet).
Ca devient de plus en plus mystérieux tout ça...
Je dois également faire face à ce phénomène de réponses multiples dans mon secteur d'activité (automobile) : je rencontre parfois 20 résultats de suite issus du même site, le terme "clustering" ne fait apparemment plus partie du vocabulaire des ingénieurs de chez Google...
Bonjour,
Merci pour le billet intéressant!
Je tombe souvent sur ce genre de résultats, en vérité ça ne m'étonne même plus! Les résultats fournis par Google ne sont pas très pertinents, comme certains d'entre vous le dites, il faut encore un long chemin pour Google atteigne la perfection si c'est encore possible!
Bonjour;
Merci pour cet article. J'irai plus loin que toi "rédaction web" ... je trouve même que les résultats sont de moins en moins pertinents et ferment par ailleurs la porte à beaucoup de sites prometteurs si ils étaient un peu plus dans la lumière. Je suis un nostalgique de Copernic qui permettait un classement des résultats en croissant ceux des moteurs de recherche.
Personne n'est pas parfait, pas même Google. Il leur faudra encore un peu de travail pour pouvoir palier ces problèmes. Il m'arrive aussi de trouver un (trop?) grand nombre de résultats multiples. Il est clair que proposer 10 fois le même site n'aura aucun intérêt pour l'utilisateur, de ce côté Google n'est pas au top. Mais ne désespérons pas ^^
Merci pour l'article 🙂
On le savait déjà mais tu illustres avec brio les travers de Google dans sa recherche de pertinence censée s'améliorer.
Faut-il essayer de positionner plusieurs pages sur le même terme maintenant pour profiter d'un affichage multiple dans les serps, ou le risque de cannibalisation est trop grand ?
Je pense que ca sera réglé un jour ou l'autre de toute façon.
Quel travail pour construire un algorithme donnant des résultats pertinents POUR les utilisateurs et non pas simplement donner comme résultats les sites dont il y a eu "simplement" un travail SEO derrière...
Ce qui est sûr et qu'on m'a toujours dit, c'est qu'il faut faire ses propres expériences de référencement et surtout pas se fier à M. Cutts et sa clique...
Haaa google et sa volaille monochrome qui nous assène sans arrêts de "fais ce que je dis, mais ne fais pas ce que je fais"...Parfois frustrant quand même. Et ces changements de règles permanents sont usants à la longue. Il faut croire que tant qu'il y aura des règles, il y aura ceux qui les comprennent et qui savent les déjouer, et les autres. Welcome to the jungle..
Je ne sais pas vous mais moi je trouve que la qualité des résultats de Google ne s'est pas franchement améliorée et des exemples comme tu cites il en existe des tonnes. Sans compter les sites tombés par malchance dans le filtre panda ou penguin alors que d'autres qui pratiquent le spamdexing s'en sortent sans problème...
C'est pas demain matin que le problème sera réglé et c'est d'ailleurs une porte grande ouverte aux autres moteurs comme Bing. Que fait la concurrence !! ^^
Toujours intéressant de lire tes réflexions Sylvain 🙂 Cependant pourrais tu nous donner quelques sources (vidéo, articles de blogs, site officiel google) où l'on pourrait retrouver cette communication exacerbée de Google quant au fait qu'il se veut pertinent, centré sur l'utilisateur, etc.
Dans la description de "sa mission" c'est relativement explicite, mais je suis à la recherche des autres sources démontrant ce rabachage.
Comme je le dit régulièrement, Google fait de plus en plus n'importe quoi. Si seulement les résultats de Bing étaient plus pertinents, il ne faudrait pas longtemps pour oublier Google qui n'est devenu qu'un affichage de pubs.
Mais sérieusement, qu'est-ce que Microsoft attend pour rendre Bing pertinent ? Le moteur a tout pour réussir, l'interface est sympa, tout est rapide, pas (encore ?) envahi de pubs.
Sinon, Duck Duck Go semble pas mal... mais uniquement pour de la recherche en anglais. Pour le moment il faut l'oublier pour la recherche en français.
complètement d'accord avec l'article, j'ajouterais juste qu'en plus du manque de pertinence dans les SERP, on, pourrait ajouter que les annonces payantes sont de plus en plus visibles et occupent parfois plus des 2/3 de la page de résultats...questions de monopole après tout...
@ Martin
En effet, le coup du discours sur le robots.txt me crispe au plus haut point !
Pour ce qui est de la reconnaissanced'une source, Google est effectivement complètement à la ramasse, mais j'admets que le sujet n'est pas simple.
Globalement, je suis d'accord avec ta conclusion quand on raisonne long terme.
@ Gta
Oui, j'ai même parfois l'impression que c'est pire en terme de pertinence.
@ Lefreferenceur
En effet, la faute à une trop grande prise en compte de l'autorité et de l'ancienneté d'une page. Même chose pour les exact match domain je trouve.
@ Jean-Luc
Google à toujours été à la rue sur ce sujet.
@ Olivier
Et oui ! Vendre de l'Adwords reste la préoccupation principale de Google.
@ Loran750
Attention a une chose. Si tu mets un noindex, mais que tu empêche le crawl, Google ne verra pas ton noindex.
@ David
Bonne question !
@ Antonin
J'ai l'impression que Bing It On n'a pas vécu longtemps.
Dommage !
@ Hervé
Je pense que nous voyons cela de manière bien plus flagrante nous autres SEO, qu'en est-il du grand public ?
Et quand on voit à quel point Google a augmenté ses résultats financiers avec Pingouin et Panda, je ne me fais pas trop d'illusion.
@ Benji
On en est pas là, mais l'ancienneté a de l'importance, c'est certain.
@ Seb
"Si Google bossait sur la pertinence des résultats dans les SERP plutôt que de faire la chasse aux sorcières au mauvais endroits"
Dieu t'entende !
@ Daniel
"La pertinence de Google fond comme neige au soleil, au profit de ses services payants."
+1
@ Morgan
Je sens que je vais compléter cet article la semaine prochaine...
Merci pour cet exemple Sylvain. L'exemple pour les nikes est effectivement troublant. Comment des sites sans contacts / mentions légales peuvent remplir l'intégralité de la première page? Au final, le seul où j'achèterai peut être des chaussures, c'est le deuxième lien de publicité, Zalando. Donc Google a gagné, des sites professionnels sont obligés de faire de la publicité sur Adwords pour être référencés.
J'avais aidé des amis, avec un site professionnel, qui se retrouvait totalement bloqué par G. Ils étaient pro, avait respecté la réglementation en affichant adresse, numéro de tél, numéro siren et j'en passe, un design agréable et du contenu unique et de qualité. Au final, ils se sont fait doubler par des sites louches, où l'a aussi je n'aurai même pas donné mon numéro de CB. Pire, ils se sont fait voler du contenu, et se sont retrouvés désindexés.
Réponse de google : Votre site n'est pas de qualité, et a dupliqué du contenu.
Retour de notre part : ce contenu, en première position google, a copié notre site. La preuve, il a même laissé le nom de notre site dans tel paragraphe (oui, un gros copier collé sans se posé de question, si ça ce n'est pas une preuve).
Réponse de google : c'est l'algorithme qui choisit l'ordre des résultats, il ne peut pas être influencé, le seul moyen pour apparaître en première page étant ... adword.
En allant sur certains sites qui vendent des nikes, Avast me prévient que le site n'est pas propre propre (avec les fameuses barres vertes ou oranges). Pourquoi Google n'utilise pas un tel index pour supprimer les sites frauduleux?
Je trouve que les résultats naturels de bing sont nettement meilleurs que google.
Google ne s'améliore pas en vieillissant.
J'espère que Bing va continuer à progresser dans l'augmentation de son trafic!!!
Bonjour,
Personnellement, j'ai remarqué ça ! La qualité des résultats Google a baissé. Il y a aussi le problème de filtre. Il y a des sites qui sont filtrés par panda ou penguin alors que d’autres qui pratiquent le spamdexing s’en sortent sans problème.
Sophie
Salut Sylvain,
Très bon artile, pertinent suite aux update panda et pingouin. L'exemple du pyjama est assez parlant pour ce qui concerne la pertinence des résultats. C'est là qu'on se rend compte que même si le moteur à fait des progrès sur ce critère, il y a encore du chemin à faire pour trouver "vraiment" ce qu'on recherche, y compris hors première page...
Yvan,
Bonjour,
Google n'est pas toujours pertinent mais les autres le sont encore moins! Bing n'arrive pas à repérer que je suis en France et m'affiche des résultats en anglais. Ce qui est sûr c'est qu'il y a en effet un grand écart entre les déclarations sur les différents filtres (Panda, Penguin...) et les résultats en terme de pertinence.
Grégory
Hello,
J'ai souvent été confronté a ce type de résultat ce qui est souvent un peu déroutant et ceci manque parfois de pertinence.
Perso mon blog a pris une énorme claque ces derniers mois a cause des différents update. Il semblerait que les critères ne soit pas tjs au points...
Bref merci pour cet article;)
Merci pour l'exemple tout bonnement hallucinant. A trop vouloir être boulimique - songeons un instant à la diversité des marchés "chassés" par big G ! -, Google semble parfois négliger sa mission première en tant que moteur de recherche : fournir l'information la plus pertinente à l'internaute.
Comme dit Seb au 33, Google c’est un peu le collègue relou qu’on deteste mais avec qui on est quand même tous obligé de bosser malheureusement !!! J'adore !
Il est vrai qu'on remarque globalement une baisse de qualité dans les résultats naturels de google et qu'ils sont de plus en plus à la ramasse mais je ne trouve pas que ceux de bing aient vraiment tendance à s'améliorer non plus... et puis visiblement ne serait-ce que sur le pyjama bébé, google a bien rectifié le tir...
Je suis aussi tombé sur un "site" qui est un moteur de résultats, qui indexe des pages, truster une multitude de pages sur un grand nombre de mots-clés. C'est impressionnant en plus d'être sans aucun intérêt. Un moteur qui truste un autre moteur en vue d'obtenir des résultats pertinents, c'est quand même un comble monstrueux pour Google !
Google s'est enfermé dans une nouvelle logique de classement où lui même ne comprends plus ce qu'il fait et n'arrive pas à dégagé un simple logique de résultats. Je comprends qu'on peine à avancer par moment...
Je suis d'accord avec king de Keeg. Résultats de Google peuvent être un sac mixte par moments.
Ce qui est bien avec Google, c'est que les administrateurs de site croient toujours que la vérité sort de la bouche de Matt Cutts. Quelle déception, quand ils s'aperçoivent que le Père Noël n'existe pas !
D'un certain point de vue au cours des années, Google a bien des égards montrés ces failles. Mais en ce qui concerne son système de recherches cela me déçoit de leur part. En effet, ils ont tellement misés sur une politique de pub que des fois l'utilisateur ne trouve pas le contenu adéquat à ces demandes.
Tapez : annuaire animaleries
(chez notre ami GG bien entendu)
et c'est hallucinant ... pagesjaunes et partout, il monopolise même la page 2 en intégralité ...
J'ai l'impression que ce type de monopolisation de positionnement date surtout depuis la maj Pingouin ... pas vous ?
Merci pour ce témoignage qui fait que je me sens un peu moins seul pour le coup !
Il y a deux ans au démarrage d'un de nos sites nous nous sommes rendu compte qu'un concurrent nous avait volé mot pour mot une description avec des variantes minimes de ponctuation. Et bien figuré vous que la copie nous a toujours trusté dans les résultats, donc en plus d'être du pseudo duplicate content G ne tiens pas compte de l'antériorité de certains résultats en terme de confiance...
Ils surfent sur une techno qui fonctionne dans 90% des cas depuis des années, vivement un concurrent à la hauteur.
c'est à peux prés pour ça que google a consolider ses filtres,le blackhat est géant lui aussi pour les spammeur ,panda et penguin commence a sanctionnée vraiment des site de content dupliquer ,mais il y en a tellement de contenue plagiée par les robot blackhat qu'il faudrait du temps a restructurer le référencement naturel de Google et en parallele les spammeur eux aussi perfectionne leurs stratégie au fur et à mesure que les nouveaux filtres Google
Je pense vraiment qu'ils n'auraient du toucher à rien, ça fait quelques jours que les résultats sont archi-pourris.
Exemple : "infinite slider ajax"
On devrait avoir des résultats qui matchent ces 3 mots clés : et bien non, apparemment on a des résultats pour "infinite scroll ajax".
J'ai jamais autant utilisé l'exclusion de mot clé dans mes recherches (avec le symbole moins). Plus merdique comme moteur de recherche, tu meurs.
Et effectivement les sites qui apparaissent sur 1 voir 2 pages de résultats c'est relativement courant maintenant.
Vivre du référencement naturel et du référencement payant, ça sentait par nature le conflit d'intérêt... Comme par exemple pour une agence de notation mondiale comptant en son sein des grands ponte de multinationale. Toute ressemblance avec une grave crise mondiale existante étant sûrement fortuite 😉
A force d'optimiser leurs algorithmes, ils vont finir par se tirer une balle dans le pied.
Yahoo prendra le relais, mais à terme fera surement pareil !
Sylvain from Agence Communication Monica Médias dit :
4 octobre 2012 à 0:38
Vivre du référencement naturel et du référencement payant, ça sentait par nature le conflit d’intérêt… Comme par exemple pour une agence de notation mondiale comptant en son sein des grands ponte de multinationale. Toute ressemblance avec une grave crise mondiale existante étant sûrement fortuite 😉
------------
kristof from coffre-fort dit :
6 octobre 2012 à 22:20
A force d’optimiser leurs algorithmes, ils vont finir par se tirer une balle dans le pied.
Yahoo prendra le relais, mais à terme fera surement pareil !
---------
ça me fait rire mais c'est tout à fait vrai 😉
Yahoo prendra le relais.
Depuis presque un an, j'ai aussi remarqué que la pertinence de Google baisse considérablement, surtout sur les pages 2 et + .
En effet, au lieu "d'élargir" (je ne trouve pas le terme idéal) les résultats a d'autres sites, Google ne fait que répéter ce que l'on ne veut pas et affichés dans les premiers résultats.
Je pense que cela est dû au mode de construction des index, l'index primaire puis secondaire (ou tertiaire si il existe). Google piochera dans l'index primaire avant tout, quitte a retrouver x fois le même nom de domaine.
Je pense que les ressources de Google sont au maxi, et peut-être qu'en terme d'index, il reste une amélioration ou innovation possible, de Google ou d'un autre. En informatique, "tout est possible", c'est une question de choix.
Google oriente ses ressources vers une exploitation de ses pubs, ce qui induit cet "appauvrissement" de la pertinence.
Je reste persuadé que l'arrivée du moteur purement Français pourrait aisément faire sa place, mais je ne connais aucune recherche ou initiative, Exalead étant confiné dans le data industriel ...
En fait, je l'ai mentionné il ya aussi des doutes, j'ai également été activement tenter l'expérience google pour obtenir une des conclusions plus précises
@Iphone_coque on voit que la pertinence de ton commentaire vaut vraiment celle des recherches Google.
Quand est-ce que les spammers arrêteront de coder des bots cons ?