Si un terme revient souvent lorsque l'on parle de référencement, c'est le mot "qualité".
Il faut produire des contenus qualifiés comme tel pour répondre aux exigences affirmées de Google... Ce moteur de recherche tente au mieux de nous donner des résultats de qualité...
Bref, depuis quelques années, c'est le mot d'ordre du SEO. Les filtres "qualitatifs" Pingouin et Panda ont fini d'enfoncer le clou.
Mais la qualité, c'est quoi ?
Dans le sens qui nous intéresse, le Larousse dit : "Ce qui rend quelque chose supérieur à la moyenne". D'autres sources parlent d'excellence, de quintessence.
L'organisation internationale de normalisation l'a traduit comme "l'aptitude d'un ensemble de caractéristiques intrinsèques à satisfaire des exigences".
Une perception très individuelle.
Satisfaire des exigences ? Supérieur à la moyenne ?
Ces définitions restent en fait relativement floues dans la mesure ou les exigences de chacun et notre base personnelle de perception de la moyenne sont très disparates selon nos connaissances, goûts, expériences, instruction, etc.
- Pour prendre un exemple à la mode, la vidéo Gangnam Style a fait plus de 877 millions de vue sur Youtube au moment ou j'écris cet article. Est-ce un gage de qualité ?
- Lorsque je tape Gangnam Style dans Google, j'ai plus de 900 millions de résultats. 130 millions seulement pour Mozart. 1,3 million pour Shinya Yamanaka. Ces chiffres peuvent-ils être des indicateurs de qualité de leurs prestations ?
On se rend compte avec ces exemples que la popularité et la qualité peuvent être des notions très distinctes.
Un moteur de recherche peut-il juger de la qualité ?
S'il est difficile pour nous humains, de nous mettre d'accord sur le sujet, il semble quasi impossible pour une machine de le faire.
Pour simplifier la question, nous pourrions nous dire que l'on va limiter la notion de qualité au texte, puisque le contenu rédactionnel reste un critère majeur dans les algos de Google ou Bing, mais là encore, définir ce qu'est un texte de qualité me paraît tout aussi compliqué.
- Quel livre classeriez-vous 1er sur le critère de la qualité entre "Les misérables" ou "Les fables de La Fontaine ?
- Quel auteur aurait votre préférence sur cette notion de qualité entre Fréderic Dard et Guillaume Apollinaire ?
La qualité des résultats pour Google
Si l'humain n'y arrive pas, comment la machine se sort-elle de ce sujet épineux ?
Plusieurs critères vont entrer en ligne de compte. Sans doute très loin d'être parfaits individuellement, leur croisement et pondération vont donner une méthode de calcul à la machine qui va tenter de s'en sortir avec ça.
La qualité intrinsèque du texte
Sans doute ce que Google sait le moins bien faire. Mais quelques pistes peuvent lui permettre de se faire une vague idée. Le texte est-il copié ? Le texte est-il riche sémantiquement ?
Est-il truffé de fautes de typo, de fautes d'orthographe ? Sa longueur peut aussi être un indicateur ( un texte d'une ligne sera sans doute moins valorisé qu'un autre de 300 mots).
Traite-t-il 50 sujets disparates (moins facile à comprendre pour une machine) ou un seul en profondeur ? Etc.
Ne vous focalisez quand même pas là-dessus (voir le premier résultat de la requête "pertinence vue par google"). Google ne sait pas encore lire. On constate donc que la qualité du texte concerne avant tout le visiteur. On va donc simplement rédiger en suivant quelques règles.
La qualité du site support du texte.
Une caractéristique qui à largement la faveur de Google. Un site reconnu, de confiance, est toujours largement préféré par ce moteur. Imaginons un excellent article publié sur votre blog perso, puis repris mot pour mot sur le site du Monde, ou autre mastodonte du web, même 2 semaines plus tard.
Selon vous laquelle des deux pages sera à priori la mieux classée ? Pas la vôtre ! C'est injuste, mais c'est comme ça, il faut se faire une raison.
Le taux de rebond *
Un visiteur vient de la page de résultat de Google (SERP), reste 2 secondes sur votre page, puis retourne sur la SERP chercher la même chose ailleurs. Google ne verra probablement pas ce comportement comme un signal de qualité de votre contenu. Encore une fois, c'est l'action de l'utilisateur qui renseigne la machine.
* Certains parlent de taux de retour (sur la SERP). Je ne parle ici en aucun cas du taux de rebond du site tel qu'affiché sur Google Analytics.
La "Qualité" de l'auteur
On y vient doucement mais surement avec Google Plus. Un auteur identifié sur G+ (donc à priori, un humain ou une entreprise reconnu par ce moteur) dont les textes sont en plus partagés sur ce réseau aura sans doute un petit bonus supplémentaire lorsqu'il s'agit de départager son texte de celui d'un autre pour une requête donnée.
Les signaux sociaux.
Au-delà de Google plus, le "bruit" fait sur les autres réseaux sociaux (Facebook, Twitter, etc.) sert sans doute pour apporter une sorte de caution humaine à une page web, à un nom de marque.
Les liens externes
Rhââ ! Le backlink, cet ami inconditionnel du SEO. Sans aucun doute, un contenu qui recevra de nombreux liens, surtout ci ceux-ci viennent d'autres pages reconnues de qualité, bénéficiera d'une forte connotation qualitative aux yeux de Google, mais là, je ne vous apprends rien.
Alors, sur cette base, Google fournit-il aujourd'hui des résultats de qualité ?
Si je remonte 10 ou 15 ans en arrière comme mon acolyte Jean-Marc, il n'y a pas photo, la qualité des résultats s'est largement améliorée.
- Sur de nombreuses requêtes, le Spam (MFA et autres contenus d'affiliation sans grand intérêt) a globalement bien reculé (dommage, ça me rapportait).
- Google nous tient maintenant informé des risques de se faire véroler son ordinateur lorsqu'un site se révèle suspect.
Mais sans chercher bien loin, on trouve toujours des résultats qui nous semblent peu pertinents alors que l'on connait des contenus qui correspondraient mieux aux recherches que l'on effectue. Là encore, il faut quand même se poser la question de la subjectivité que nous accordons nous mêmes à la notion de qualité.
Bon alors, on fait quoi pour produire de la qualité telle que Google l'attend ?
On fait, et on le fait savoir !
- Conseil 1 : On fait de vrais contenus utiles, capable de répondre à de réelles attentes de l'utilisateur. Si on souhaite qu'ils bénéficient d'un réel engagement. Cela reste quand même la base. Et tant qu'il n'y a pas de duplication, Google mangera cela comme le reste.
- Conseil 2 : On essaie de faire savoir que l'on a publié de vraies choses utiles. C'est probablement le plus difficile, mais faire parler de vous, dans des blogs... de qualité, sur d'autres sites... de qualité, sur les réseaux sociaux, représente un indicateur fort aux yeux de Google, il n'y a plus le choix.
En conclusion
Rien de neuf diront certains. En effet, on parle ici des grands leviers connus : Contenus, Linking, SMO. Mais Google étant toujours une machine à ce jour, ce sont ceux que vous devrez actionner pour justifier l’appellation "qualité" que le moteur attend / comprend.
Après, les goûts, couleurs, perceptions personnelles de ce que nous jugeons qualitatif seront surement pour longtemps totalement étrangers à Google, et nous-mêmes risquons de ne jamais être tous d'accord sur le sujet. Mais globalement, en utilisant les deux conseils ci-dessus, vous devriez vous rapprocher de ce qu'attendent les utilisateurs ET Google.
D'ailleurs, sur le plan de la qualité réelle du contenu, Google reste assez aveugle, concentrez-vous donc sur l'utilisateur, lui il sait souvent lire (cela satisfera aussi les quality raters humains).
Et comme dirait l'autre... Une page de résultats de qualité, c'est celle où je suis premier ! 🙂
edit 9 mars : Un petit test pour completer : https://blog.axe-net.fr/faut-il-du-contenu-de-qualite-pour-le-referencement/
Merci pour ce rappel Sylvain! Cela dit une question me turlupine :
Les liens externes doivent ils obligatoirement être posé sur des sites traitant du même thème ? Un BL sur un site d’autorité hors thématique n'est il pas une bonne chose ?
Bon déjà, j'ai un problème avec ton article, j'aime pas le "Gangnam Style" 😉
Au délà des contenus, linkings, SMO, il y a, à mon sens, un facteur important : le ratio intention (ce que l'on veut dire) sur perception/ réception (liens entrants, ancres)
Nul doute que cet article - de qualité ! - soit entendu comme tel par Google... au nombre d’occurrences (30), par la qualité de l'auteur, l'absence de fautes d'orthographe, la sémantique globale...
Après, la perception de l'humain, ses critères, restent effectivement terriblement subjectifs. Alors, subjectivement, je dirai que selon moi c'est une très bonne récap de ce qu'il faudrait faire chaque fois que l'on veut publier sur le web.
Sans doute rien de neuf certes, mais il y a des piqûres de rappel bien utiles ! Tous les pédagogues savent qu'il faut dire et redire (sous des angles différents) pour que le message passe... Merci donc.
@ Nicolas
Les liens ne seront pas situés au même endroit si on les place sur une règle allant du moins bon au meilleur lien, c'est tout.
Au delà du site, je raisonnerai aussi par thème de page.
Le backlinks, ce n'est absolument pas anodins. Dans les fondamentaux du fonctionnement du moteur (merci Larry), c'est laisser les utilisateurs élirent le contenu un contenu (page ou autre) grâce à des backlink.
(Un lien = 1 vote) + puissance des sites + optimisations onsite
La méritocratie internet. =)
Billet très intéressant qui me touche de près. Il est vrai que si les hommes n'arrivent pas à se décider quant à la qualité d'un contenu, comment une machine peut-elle y arriver ? Les réseaux sociaux sont une bonne piste. Mais là encore, il est possible de tricher.
Une bonne piqûre de rappel. Je m'attendais à un titre à la 'Larteguy', mais je ne suis pas déçu.
Ce qui m'embête toujours est la valeur ajoutée que donne Google à certains 'mastodontes'. Même s'ils ont pignon sur rue aux yeux de Google, la véracité des propos n'est pas toujours au rendez vous.
On le voit bien avec les dernières évolutions du moteur de recherche sur les bases de données collaboratives (!).
Eh oui ce n'est qu'un robot comme tu l'expliques, avec ses qualités et ses défauts.
Je pense qu'à l'avenir les moteurs de recherche donneront de plus en plus d'importances aux interractions sociales des visiteurs (partage, commentaires ...) car c'est finalement un bon moyen pour google de laisser des humains juger de la qualité, chose qu'une machine peut difficilement faire.
Bravo, Sylvain, pour ce superbe article qui me réchauffe le cœur !
En tant que conseiller en écriture, après avoir amené quelques ouvrages ou quelques sites au succès, voici mon point de vue actuel.
1. Je juge de la qualité d’un texte tout d’abord, bien sûr, sur l’absence ou pas de fautes d’orthographe et d’orthotypographie : c’est ce que j’appelle le dégrossissage.
2. Je pose ensuite un certain nombre de postulats :
— Il ne doit y avoir qu’une seule grande (j’insiste sur « grande ») idée par chapitre (sur Internet ce sera une page). Chaque paragraphe doit développer un aspect de la grande idée. Chaque phrase ne doit comporter qu’une petite sous idée.
— Les longues phrases sont à bannir, car elles deviennent difficiles à comprendre, et de même les phrases qui ne suivent pas le schéma traditionnel : groupe sujet, groupe verbal, groupe complément.
— Les répétitions doivent être évitées. Elles témoignent d’une pauvreté du langage, tout comme l’utilisation de verbes ternes.
— Etc.
Pour les moteurs de recherche, j’applique ensuite un nouveau filtre qui consiste à reformuler les expressions selon leurs intérêts sémantiques. Ce travail restera cependant inutile si la page cible apparaît répulsive à l’humain, et si elle ne respecte pas le standard W3C.
Et les résultats sont là : j’arrive à placer des sites PR 0 avant certains mastodontes pourtant en PR 6 ou 8. Il est vrai qu'avec de tels critères une page nécessite alors un très gros travail de rédaction, mais là, il faut aussi savoir ce que l'on veut...
@ Corrigeur
Tes conseils sont excellents car ils permettent de produire des textes agréables pour le lecteur. En revanche, je ne suis pas certain que Google soit aussi pointilleux que ça. Pour lui, il suffit d'éliminer quelques erreurs grossières, et de rédiger des contenus sémantiquement riches. mais le contenu lui même, il est incapable de juger de sa qualité.
Sa seule arme aujourd'hui; c'est de pister le comportement des utilisateurs. Et ce dernier sera bien plus réceptif à des écrits qualitatifs.
Par conte, pour le respect du W3C, je dirais que Google s'en fout royalement.
Oui la qualité mais broder sur un sujet alors qu'il peut être traité en quelques lignes.
Je ne suis pas un littéraire mais j'avoue qu'il est toujours appréciable de trouver et lire des articles bien rédigés.
Donc trouver un juste milieu semble encore une fois une marque d'équilibre et de qualité pour Google !
La qualité est un critère très subjectif. Une chose m’apparaît certaine, c’est qu’il ne faut effectivement pas ressasser les mêmes choses que tout le monde s’il l’on veut sortir du lot.
Quand on parle de votre site, cela signifie en général que l’on est arrivé au moins à un certain niveau d’attraction... ou de répulsion. Les réseaux sont alors sans doute une bonne piste à creuser.
@Sylvain
tout a fait d'accord avec toi sur W3C
En ce qui concerne le contenu et la sémantique, Google est oui certainement moins "pointilleux" fin que l'on puisse l'imaginer ..Par conter, j'ai plutot le sentiment que l'articulation entre idées et textes, pages d'une même idée globale ou thème est un levier important.
J'ai aussi la sensation que le coté pistage des utilisateurs, réseaux sociaux, compte utilisateurs et g+ ressemble a un aveu de faiblesse ou alors tout simplement une décision claire de pas trop investir dans le moteur mais plutôt ce qui lui rapporte le plus, son modèle autour de la publicité
Salut Sylvain
Bon article et ça rejoint tout à a fait ce que je pense sur la qualité
la qualité c'est celle qui fait que tu es lu partagé twitté commenté, etc..
j'aurai ajouté travail et persévérance
Cela complète mon article sur les bonnes pratiques pour rédiger un article
Bonjour,
L'algorithme de google a sûrement besoin des humains pour s'aider pour déterminer la qualité d'un site. Les résultats de recherches sont de plus en plus performants et je pense que d'autres algorithmes sortiront pour améliorer les résultats. Bref, google ne se laisse plus faire et contre attaque.
@Sylvain
Mon point de vue consiste à dire qu’il faut d’abord rédiger un texte intéressant pour l’internaute, et ensuite pour Google. Il ne sert à rien en effet que le texte plaise à Google s’il ne plaît pas au lecteur (contenu agréable) ou s’il ne peut pas le lire (irrespect du W3C).
Google se fout-il du W3C ? Officiellement oui. Je vois bien cependant sur les sites de mes clients que la simple correction du code fait gagner quelques places lorsque l’expression se trouve déjà dans les premières pages, et beaucoup de places lorsqu’elle se situe dans les profondeurs. J’imagine que cela doit être lié au temps de visite que mesure Google grâce à Analytics, et aussi parce qu’une page correctement W3C se charge plus rapidement et permet donc au moteur d’examiner davantage de contenu pendant le temps qu’il nous a imparti.
Très bon article de la part d'Axe-net une nouvelle fois, ça mérite d'être dit.
Je pense que Google analyse beaucoup les contenus mais ne peut pas aller aussi loin que certains le pensent en commentaires. N'oublions pas qu'il s'agit d'un robot qui n'a pas la même perception que des humains, bien qu'on le demande parfois... ^^
Le contexte des contenus, la logique sémantique, les ancres et le nombre de liens externes, etc., tout doit compter car les robots peuvent analyser ces points précis.
En revanche, je reste persuadé que la qualité du code source (W3C notamment) a un rôle, aussi infime soit-il. Matt Cutts a bien dit que cela n'avait pas d'impact sur le positionnement direct des pages. Admettons qu'on puisse lui faire confiance, il a également dit qu'un site bien codé avantageait la lecture des pages par les robots (pas de facteurs bloquants ou de temps perdu, etc.), cela peut donc constituer un avantage minime. Quoi qu'il en soit, un site bien codé est souvent un site dont le PageSpeed est optimisé un minimum, et ce critère compte de plus en plus. Et dans tous les cas, je trouve que la légitimité d'une agence web passe par une exemplarité de ce point de vue, au-delà même du référencement...
Cet article me conforte dans ce qui a été mis en place sur la V2 de mon site, avec un gros travail sur l'optimisation rédactionnelle et la stratégie éditoriale orientée utilisateur...
Car les textes doivent être plus orientés vers l'humain que vers les robots ? C'est ça qui a changé non ?
Un article pour rappeler l'essentiel ne fait pas de mal.
Il est bon de rappeler que Google est une machine et que nous sommes des humains, ce qui, à priori, nous donne une longueur d'avance si on fonctionne dans le sens de Google.
Pour un humain, la qualité n'est pas vraiment quelque chose de bien définit. Chaque humain à ses goûts, ses préférences, ses attentes, ses émotions.
Une personne peut trouver un article de mauvaise qualité car il ne connaît pas le sujet.
Une personne peut trouver un article de mauvaise qualité à cause d'émotions. Si il lit un article à un moment où il est fatigué, énervé,... l'article pourrait lui paraître ennuyeux, de mauvaise qualité et s'il le relit plus tard il pourrais le trouver de bonne qualité.
En revanche Google est une machine, çà enlève donc toute notion de sentiment, goût,... Google n'est régit que par des fonction mathématique ce qui rend le verdict plus facile pour lui, mais ce n'est peut être pas pour autant la bonne décision.
Bonjour Sylvain, encore un bel article mais dans le cas qui m'intéresse (voir mon mot-clé), j'ai l'impression d'être le contre exemple en tout cas pas dans les cases, le texte de ma page destination n'a pas un grand sens rédactionnel et si l'internaute repart rapidement de mon site, c'est souvent parce qu'il a trouvé ce qu'il voulait. Au vu de mon positionnement, Google estime cependant mon site globalement de qualité. Une explication ?
Quand je vois lors de certaines recherches que je tombe sur des sites au contenu automatique grossier. Merci les logiciels de Spin automatique. Surement traduit de l'anglais au français. Je me dis que Google a encore des progrès à faire...
Avant il fallait du backlink maintenant il faut du backlink et du SMO.
Prenons 2 textes identiques avec les mots clés aux même endroit. Un écrit au langage soutenu l'autre au langage courant avec quelques fautes de grammaire et un peu de langage familier. Je ne suis pas sur que Google privilégie le meilleur des 2 articles. Il faudrait faire plusieurs tests.
Franchement je pense que c'est quasiment impossible de qualifier du contenu pour un robot, la preuve il y a toujours du autosplog qui passe, les spins sont toujours aussi moche et pourtant ceux qui utilisent ces techniques sont toujours là sur les grosses requêtes.
Par contre je suis d'accord que le CTR des serps doit pas mal influencer le ranking étant donné que c'est la donnée la moins facilement manipulable.
J'adore ta dernière phrase ^^
J'ajouterai un autre facteur potentiel pour juger de la qualité d'un texte (mais GG ne l'intègre pas aujourd'hui) : le fait qu'un même sujet soit 100 % traité différemment de ce que l'on voit d'habitude.
On va dire qu'il s'agit de prendre un sujet et de traiter celui-ci à un niveau totalement différent. Par exemple, on change le profil de l'internaute « cible » et on rédige pour lui.
L'originalité dans le traitement d'un sujet est un des critères de la qualité (qui de toutes façon est subjective).
Comme on peut voir http://www.webrankinfo.com/dossiers/techniques/detection-fermes-contenu la qualité éditoriale n'a pas grand chose à voir avec la manière qu'utilise Google pour déterminer la "qualité".
Mis à part les éléments linguistiques (reste à voir pour la sémantique), le moteur ne peut absolument pas déterminer si un texte est pondu pour 5€ offshore ou 500€ par un journaliste français. Du moment que la bouillie de mots est digeste, cela s'arrête là.
@ Corrigeur :
oui rédiger pour l'internaute une réelle priorité tant qu'à faire 😉 autant que cette page soit visitée également pour que Google puisse recevoir un signal positif
un contenu aussi optimisé soit il au niveau moteur et pas lu, ne recevant aucune visite fait sans doute clignoter chez Google quelques voyant au rouge ....
Il n'y a qu'à entendre ou lire partout les commentaires, les avis, les critiques littéraires, de films, etc. pour repenser au vieil adage "chacun voit midi à sa porte". Les goûts et les couleurs se discutent, mais personne ne détient aucune vérité et fort heureusement ne peut prétendre classer la pensée, la beauté, l'intelligence de ceci ou de cela, l'art, la poésie... Les dictatures le font outrageusement, mais elles ne sont pas réputées pour élever l'Homme en aucune façon. Alors imaginer qu'une machine peut ou pourra le faire relève de l'absurde ou de la SF.
Google est un outil, juste un outil et le restera même si sa marge de progression en terme de filtrage "plus intelligent" (j'ai mis des guillemets pour les âmes sensibles ; ) est considérable. S'il avait la bonne idée et les moyens d'embaucher les millions d'humains au chômage pour "faire le tri" on pourrait parler d'une humaine intelligence au service d'une meilleure qualité, mais rêver qu'on puisse le faire "mécaniquement" c'est peine perdue. D'autres "SERP" (pas que Google) comme à l'image de la TV (Arte ou M6 (par exemple)) serait un début de solution pour que chacun puisse en fonction de son humeur et de l'envie du moment y trouver son compte.
Pour paraphraser l'essentiel contenu judicieusement dans la dernière phrase du billet et pour finir avec une note d'humour, me revient cette célèbre citation : "un égoïste, c'est quelqu'un qui ne pense pas à moi".
La qualité oui, la pertinence surtout !
Comme dit dans l'article, la qualité est un facteur mis en avant par GG pour différencier les pages au contenu spinné et bourrées de MC avec backlink qui ont pu a une époque favoriser
grandement le seo de certains sites.
Mais il n'est pas fait vraiment référence à la notion de pertinence, sauf peut être dans le conseil 1 qui souligne vraiment la notion d'intérêt pour l'utilisateur final.
C'est parce que le contenu est pertinent qu'il sera :
-plus facilement repris, partagé et publié par les réseaux sociaux,
-plus facilement diffusé par des journalistes spécialisés ou non qui reçoivent tous les jours des dizaines de CP et doivent choisir un contenu intéressant.
Et donc, plus facile d'en faire la promotion.
En effet, professionnels ou particuliers, notre temps est limité et nous serons plutôt disposé à lire et partagé un contenu nouveau dont la valeur ajoutée est bien réelle qu'une page au contenu moyen et ce même s'il n'y a pas de fautes d'orthographes.
Par exemple,
Un contenu SEO de bonne qualité sur l'importance/désuétude des balises meta keywords est il pertinent ? Faut il prendre le temps de le lire ?
NON. Le sujet est archi connu, rabâchés depuis de nombreuses années.
Mais bon, qui peut publier du contenu, une vidéo de qualité ou des analyses réellement pertinentes et ce, régulièrement ? ...
Soyons objectif: écrire et produire des sentiments ou des concepts est à 100% subjectif.
Et juger universellement de la qualité d'une oeuvre et donc d'autrui aboutirait à une entreprise totalitaire et absurde. Déjà que GG doit faire oublier sa position monopolistique et son costume de big brother high tech des Bermudes...
Non comme le dit Sylvain, GG ne sait pas lire, dans le sens imager les idées et concepts, mais il sait compter. Il excelle pour distribuer des bons points et des devoirs pour des problèmes de base, de grammaire ou d'arithmétique. Cela veut dire en grammaire, par exemple, ne pas oublier son dico des synonymes, son dico tout court et à ne surtout pas copier sur le voisin. Et en calcul, à faire ses petites équations en surveillant les variables avec prof GA (taux de conversion, de rebond, etc.)
En quelque sorte un contrôle permanent des fondamentaux qui n'ont pas changé dans l'esprit depuis des lustres. Le reste est une question de marketing, d'imagination et de poids économique. Et là c'est une autre paire de manche, avec ou sans filtre.
Salut à tous,
Merci Sylvain pour cet article et les conseils prodigués.
Je crois que s'il y a une chose à retenir sur ces derniers mois, c'est bien la caution humaine, donc oui plus que jamais, il faut faire des articles intéressants et le faire savoir pour glaner quelques like et consort... C'est presque le seul moyen de ne pas reculer à chaque mise à jour de l'algo...
Effectivement la qualité d'un texte doit être sacrément compliqué à évaluer pour Google, quoi qu'avec le Knowledge Graph Google a fait pas mal de progrès dans le sémantique et les relations entre les mots, il doit être capable d’interpréter plus de chose qu'avant. Pour le taux de rebond, le moteur peut le calculer sans Analytics juste en calculant le temps où l'utilisateur n'est plus sur Google et le moment où il revient ?
Merci!
La notion de qualité diffère aussi suivant le niveau des lecteurs.
Un contenu peut être très différent mais de très bonne qualité pour une classe de CP, de 6ème, de seconde, de Bac+5. La qualité c'est aussi l'adéquation entre une information claire, utile, pertinente et un niveau. Et un texte trop ardu ne sera pas considéré comme qualitatif...
De cette façon, en fonction du niveau de langage utilisé, on peut estimer la cible visée.
Comme d'habitude, un sujet sympathique. Comme pour tout ce qui est apprécié par l'humain, on parle de subjectivité et non d'objectivité d'où, je pense, le frein majeur pour juger la qualité d'un contenu.
Par contre, je me demande vraiment si un texte réfléchi et bien construit a plus de valeur qu'une bouillie spinnée. On l'a vu sur des concours et IRL, certains textes qui ne veulent rien dire surpassent des proses pertinentes et compréhensibles par un humain.
Le jour où Google parviendra à analyser la qualité d'un contenu ou d'un lien est encore loin.
Comme tu le dis, certains signaux lui permettent d'estimer cette qualité, mais sans analyse sémantique complète, c'est peine perdue. Il suffit de voir le profil de liens de certains sites positionnés en premier pour s'en rendre compte...
Tous les signaux peuvent être brouillés : on peut falsifier des votes sociaux, créer des liens factices ou encore faire des spins très réussi de contenus.
Je me suis toujours appliqué à répondre à une question au travers d'un article, ou tout du moins, à donner matière à réflexion (ouaip, je ne suis pas omniscient).
Cet article me conforte dans ce que je pense depuis des lustres. Ecrire pour l'humain, le moteur suivra, puisqu'il cherche à faire comme l'humain.
La qualité, comme tu le soulignes fort justement, c'est une affaire de goût, on le voit d'ailleurs très bien avec l'émergence des "gurus" en tous genres. Pour les uns, c'est du vent, pour les autres, c'est le top. Qui a raison, qui a tort ? Ou se place le curseur ?
Un article dit de qualité, à mon sens, c'est aussi un contenu dont la source peut se vérifier s'il est question de chiffres. SI c'est un avis, il faut qu'il soit soutenu par des exemples concret, vérifiables, encore une fois. Donc, la encore, rien de neuf. Les thèses, synthèses et antithèses existent depuis des siècles.
Tout le monde n'ayant pas le talent d'un référenceur, il faut "lutter" avec ses armes et produire un contenu qui au moins ne raconte pas d'anneries, ça peut aider.
En résumé, le bon sens, ça aide bien en SEO quand on débute (:
Je suis assez d'accord avec le commentaire sur la pertinence: car la qualité est forcément subjective, alors que la pertinence l'est un peu moins.
Un texte peut-être de grande qualité, mais sans rapport réel avec la requête d'un internaute. A contrario, un contenu avec un verbe moins joliment manié mais plus en rapport avec l'attente d'un internaute pourra être plus pertinent...
Je pense que déja si le contenu est unique ça passe sans probleme, mais bon tout le monde n'ai pas écrivain pour sortir du texte hautement qualitatif. Ensuite un texte peut convenir à une personne et pas à une autre donc au final difficile de cerner les differents besoin du visiteur.
@ Sam
On peut dire ça. En même temps, même si c'est aussi manipulable, la caution sociale est quand même une bonne piste pour valider la popularité d'un contenu.
@ Mathieu
Malheureusement,il faut généralement choisir entre la validation W3C et l'intégration des boutons de partage sociaux. Aujourd'hui, je privilégie ces derniers.
@ Etienne
J'ose espérer que les textes étaient déjà faits pour les humains.
@ Very utile
Si l'internaute trouve ce qu'il cherche sur ta page, je doute qu'il continue à le chercher ailleurs. Dans ce cadre, ta page est jugée très pertinente par Google. C'est simple.
@ Lereferenceur
Tu as raison, mais à terme, un contenu bien écrit sera plus facilement partagé et linké.
Clairement, j'ai déjà lu des articles dont le fond était très bon (article technique), mais l'orthographe tellement désastreuse que je ne les ai pas twitté, car je ne voulais pas y apporter ma caution.
@ Laurent
On est d'accord, et même avec un texte qui ne veut rien dire (l'exemple dans mon article), ça passe si le site a suffisamment de trust.
@ Agence web tours
Humm. Pour ma part, quand je parle de pertinence, c'est plutôt par rapport à une requête, dans le sens d'une adéquation entre une recherche et un résultat.
Et franchement, sur l'idée d'un article sur la méta keyword, quand je vois le nombre de personnes qui continuent de penser que c'est indispensable, je pense que cela peut encore être un contenu utile.
@ Monica
On est d'accord, et j'aime ta manière de présenter les choses
@ Coblog
Pour le knowledge graph, c'est différent, c'est une histoire d'entités nommées https://blog.axe-net.fr/google-recherche-semantique/
Pour le taux de rebond, oui, il le calcul comme cela.
@ Tipi
En principe, un texte de qualité a quand même plus de chance de recevoir des liens et du partage qu'une bouillie infâme, non ?
@ Daniel
Oui, onpeut encore magouiller sur tout cela, mais pour combien de temps. Panda et Pingouin ont quand même fait quelques ravages justifiées, non ?
@ Likibu
Je suis d'accord sur le principe, mais pas avec le vocabulaire ou la manière de présenter la chose. Cela fera peut-être l'objet d'un article:-)
@ Mapics
Cerner les besoins du visiteur, ce n'est plus du SEO, c'est du marketing, et ce travail d'identification des cibles et d'offres à proposer doit être fait en amont.
Je n'avais pas vu la dimension SMO mais, est-ce qu'en spammant bien sur les réseaux sociaux, cela ne suffit pas ? On peut toujours donner le change en visibilité sociale, tu ne crois pas ?
Je pense qu il est injuste de se faire juger par une machine mais vu la masse de donnée et la rapidité de nos attentes il est indispensable que ce soit une machine qui le fasse.
Maintenant Google travaille sur de l intelligence artificielle sur nombreux projets ( google car, moteur de recherche, smart glass et j en passe). La qualité de cette IA détermine les choix du moteur et donc de notre jugement. Autrement dit si l on aime pas les choix que nous retourne GG alors on essaiera un autre moteur comme bing.
Pour conclure je pense que même si le résultat sera toujours imparfait, les robots de Google feront l'essentiel du Job d'une meilleure façon que les humains
@ Tipi
D'après les tests que j'ai pu faire, le SMO tout seul, ça ne donne rien. Il faut du lien aussi.
https://blog.axe-net.fr/smo-remplace-seo-pas-d-accord/
@ Amitié
Toi tu vas te faire engueuler avec l'IA 🙂
https://blog.axe-net.fr/le-jour-ou-google-s-eveilla-le-monde-seo-trembla/#comment-38682
Aussi performant et ingénieux que l'ordinateur puisse être, juger de la qualité d'un texte est un travail que seul le cerveau humain est capable d'accomplir correctement. Seulement, il ne s'en rend pas compte, dépassé par les progrès de l'informatique!
Enfin quelqu'un pour démystifier cette fameuse expression sacrée de "qualité". Bon j'en attendais pas moins d'axe-net heint !
J'avais vu passer il y a des mois un commentaire très pertinent sur le sujet (avec une analogie sur le sens du mot "amour"), et j' pensais justement la semaine dernière tiens !
Je pense que Google analyse peut être de la manière suivante pour juger de la qualité d'une page ou d'une url. Il cherche les sites de confiance dans ce domaine qui lui font un lien : sites des administrations, d'état, de fédération, de fondation et leur attribut un certains poids. Ensuite, il se base sur la diversité et le nombre de liens qui proviennent de sites similaires ou complémentaires, ainsi que les expressions et recherches dites synonyme. Pour finir, un site clair autant sur le texte que dans son architecture, son code, ses microdonnées (norme schema.org), GG aime que l'on y parle, que l'on lui donne des billes. Mais réduire le travail d'une machine à ces seules choses sont idéaliste. il juge par niveau et chaque actions ont un poids plus ou moins influant sur la qualité qu'il attribue à un contenu.
Très bonne analyse et rappel de ce que représente la qualité aux yeux de Google et des utilisateurs. Google ne pourra très certainement jamais juger la réelle qualité d'un texte, cependant comme tu l'as bien souligné, l'algo est déjà super avancé pour analyser le comportement et les actions des utilisateurs, qui ont un rôle extrêmement important. Ils continueront à perfectionner l'expérience utilisateur, ce qui résulte dans tous les cas à continuer de produire des articles de "bonne qualité" tout en contrôlant les autres leviers (SMO, backlinks) avec précision et justesse.. bref toujours plus de travail !
Belle approche d'un sujet qui est difficile a traité - j'en avait parlé dans un article il y a un moment de cela http://lemusclereferencement.com/2011/04/14/la-qualite-du-contenu/ . Je me rapproche plutot de ton point de vue meme si on est pas tout a fait d'accord sur tous les points. A savoir que Google ne juge pas vraiment la "qualité" du contenu (comment le pourrait il) - on dira plutot qu'il jauge les réactions autour de ce contenu pour évaluer
@ Le juge
Au contraire, j'ai l'impression que l'on est parfaitement d'accord puisque c'est clairement ce que je dis dans l'article.
Ce sont principalement les signaux externes au contenu qu'il juge, vu qu'il ne sait pas lire.
La « qualité » reste un des « idéaux » du SEO = ce qu’il faudrait idéalement avoir pour plaire à Google... C'est en tout cas son idéal à lui, de nous voir faire des choses qui ne soient pas forcées, qui se rapprochent le plus possible du naturel...
Tout cela pour dire que même si l'on reste assez loin de cet "idéal", on peut parvenir à notre but quand même !... en fin c'est ainsi que je bosse, en y croyant fort 😀
À mon avis, qu'importent les jugements de Google, il faut simplement offrir une bonne qualité au lecteur. C'est beaucoup plus honnête. Sinon le référencement site Internet va se perdre dans leur propre stratégie.
Ce que je retiens de cet article est qu'il faut avant tout écrire et produire du contenu pour le lectorat et non pas pour un algorithme. Assez d'accord avec la fin de l'article. Produire du contenu qui trouvera preneur et dont les utilisateurs pourront tirer un intérêt est le meilleur moyen pour que Google vous référence au mieux.
Les deux choses à retenir sont: la subjectivité des internautes, donc la qualité c'est vraiment un concept abstrait, et aussi le fait que google reste une machine qui ne sait toujours pas lire comme tu le dis très ben, donc faire comprendre des choses à une machine ça peut se révéler compliqué. Le reste est très bien dit dans l'article, on sait ce qu'il nous reste à faire pour satisfaire google à défaut de satisfaire les internautes ;-).
Très intéressant de se pencher là dessus, c'est vrai qu'on parle toujours de contenu de qualité sans vraiment savoir quels sont les marqueurs pour savoir où se situe la qualité.
Popularité n'est pas égal à qualité! Tout est dit. Sur un même sujet, un site qui aborde les questions en surface générera plus de popularité qu'un autre qui fait une analyse plus fouillée. Tout le monde n'est malheureusement pas en mesure de discuter de sujet hautement pointus, mais Google étant un outil de "grande consommation", ce n'est pas étonnant qu'il privilégie montrer au gens ce qui va leur plaire, de préférence à ce qui leur sera le plus utile.
Je suis pour ma part persuadée que la richesse du texte a un impact assez important sur le référencement. D'après mes quelques constats, utiliser des synonymes, éviter les répétitions des mots clés est une stratégie payante. En fin de compte, il s'agit tout simplement de produire un contenu de qualité, riche et informatif pour le lecteur. Ca ne peut qu'être payant car si le contenu est utile et bien écrit, il aura plus de chance d'être partagé sur les réseaux sociaux et donc d'acquérir une certaine "valeur" aux yeux de google.
L'avenir du SEO (selon moi) c'est qu'il n'y aura plus de SEO, l'optimisation n'existe que pour compenser les lacunes de l’algorithme à trier le grain de l'ivraie. Comme le dit l'un des intervenants, google ne sait pas lire, mais par contre il sait identifier des mots ou des groupes de mots et les relier à une thématique / champ sémantique. Si on ajoute à cela une structure claire et bien conçue, avec des sous titres pertinents par rapport au contenu, on a de meilleures chances de lui plaire.
Il n'y a pas de doute que le social prend le relais sur les indicateurs traditionnels.
La qualité du contenu est à mettre au coeur d'une stratégie car comme dis dans l'article les internautes seront plus enclins à s'impliquer, à partager, commenter...
Google plus qui affiche une belle croissance prend plus de poids à ce que je vois! Il faudrait que je m'y mettes plus sérieusement 🙂
Merci pour l'article encore une fois bien étayé
Rien de bien nouveau en matière de référencement. Du contenu unique et de qualité si possible plus du linking...
Je rejoins l'auteur quant à la notion de qualité ou du moins de l'interprétation qu'on en a. L'exemple entre le buzz merdique de Gang Nam Style et Mozart est éloquent.
Moi j'ai l'impression que tous les changements d'algo de Google n'ont pas vraiment pour effet de supprimer les contenus plus que douteux produits par des blacks seo, mais de les pousser à redoubler d'effort pour masquer toujours plus leurs contenus sans valeur. Ex. : On voit de plus en plus de prestation MEGAspin proposée sur Odesk et consorts... En gros avant panda et pingouin on pouvait faire des spins vites faits mal faits. Maintenant il faut exploiter un jeune indien pour le faire en le payant une misère.
Bref... Pour moi ça ne change pas grand-chose cette évolution de Google. C'est toujours les mêmes utilisateurs basiques qui se font avoir. Ca pousse simplement les référenceurs à trouver de nouvelles techniques pour duper google.
Ce n'est que mon avis.
Très intéressant cet article ! Je pense que Google va encore bien faire évoluer son moteur de recherche pendant les prochaines années...
Je suis d'accord avec toi sur plusieurs points. Je pense que le taux de rebond, les signaux sociaux, et les BLs sont les 3 forces qui permettent à Google de juger de la qualité du contenu.
J'ai entendu dire aussi que la qualité d'écriture du texte pouvait jouer sur sa qualité. Je pense qu'une vérification grammaticale et orthographique est en place pour justifier de la qualité du contenu.
Il va falloir arrêter d'écrire trafic avec 2 FF alors...
L a richesse d'un texte a certes un bon impact sur le référencement par contre cela tourne vite au casse tête soit vous référencez un wiki alors la oui la richesse facile mais si vous vendez des pneus?
Sujet sympathique. Comme pour tout ce qui demande une appréciation de l'homme, on parle alors de subjectivité et non d’objectivité. Et c'est là le premier frein pour juger la qualité d’un contenu.
Je sais bien de quoi je parle, j'essaye tant bien que mal de rédiger des tutoriels sur wordpress 🙂
On se demande si intelligence artificielle rivalisera la notre ?
Bref, quand il s'agit de calcul, les robots dominent, mais quand il s'agit de raisonnement, de décisions à prendre, c'est à l'homme que revient le dernier mot.
Trouver des modèles mathématique pour décider si un contenu est pertinent, c'est pas impossible, mais y a tjrs un risque d'erreur dans certains cas.
L’éternelle question est ce que la machine peut décider mieux que l’être humain ?
Pour moi, à partir du moment où un article est bien structuré, (paragraphe/titres) qu'il est clair, concis et que y'a pas de faute, c'est de la qualité même si le sujet a déjà été traité par d'autres sites. Et je suis tout à fait d'accord sur ce point : la popularité est largement différente de la qualité car un bon article peut ne jamais percer alors qu'un article moyen peut percer et avoir le droit à l'effet boule de neige qui amplifie largement sa notoriété...
Très bon article, merci.
Mais Google arrive t-il à faire la différence entre de la bonne et de la mauvaise presse?
Par exemple si il y a pleins de commentaires négatifs sur un produit quelconque, pleins de backlinks disant qu'il ne faut surtout pas acheter cette marque de cigarette...est ce que le site va devenir plus populaire bien que ce soit des mauvais commentaires?
Merci pour cet article. Un petit rappel des notions importantes de base fait plaisir. Il ne faut jamais oublier que, avant tout, ce sont des utilisateurs que nous avons en face de nous. Par contre, même si GG est une "machine", il arrive de plus en plus a réagir comme un internaute lambda. Comme tout travail, le "qualitatif" demande beaucoup de temps mais paye un jour ou l'autre. Logique ! 😉
Je suis d'accord sur plusieurs point de cet article ce qui me gene le plus c'est le taux de rebond qui ne veux rien dire à mes yeux si on trouve ce qu'on veut on reste pas si longtemps que ca sur un site enfin tout dépends de quoi sa parle pour ma part je reste pas des plombes sur un site je cherche une requete je regarde la page et je pars c'est 80% de mon trafic alors c'est un critère qui me désespère car beaucoup font comme moi avez vous fait des testes la dessus ?
La qualité du contenu deviendra avec le temps le levier le plus important pour faire avancer un site sur le positionnement google.
C'est sûr et certain qu'il va falloir de plus en plus être axé sur le contenu. En même temps, c'est un peu normal, quand on voit qu'il y a de cela 5 ans, les agences web ne créaient du contenu uniquement axé sur les moteurs de recherche, ce n'était jamais pour les visiteurs.
Dans notre agence net-referencement.net, nous avons 3 rédacteurs web qui ne font que créer du contenu toute la journée. Car même pour ce qui est des annuaires, on ne peut pas se permettre le duplicate content ou même ne serait-ce que du spinning de content, ce serait très mauvais sur le long terme.
Je trouve ça bien que les moteurs de recherche se mettent enfin à prendre en considération le confort des visiteurs. De même pour ce qui est du temps de chargement des pages, qui a toujours été une plaie pour les visiteurs et qui l'est devenu (volontairement) pour les moteurs de recherches, je trouve que ça fait la différence.
Pour moi, c'est comme si l'on présentait des voitures de collection ou Google serait le Jury. Les sites lents seraient représentés par des voitures dont les propriétaires n'ont absolument pas pris soin, et l'inverse pour les sites rapides.
Google ne pourrait pas placer les propriétaires des voitures détériorées sur le podium.
En bref (oui c'était un peu long), prenez soin de votre site internet 🙂