Recherche en temps réel, recherche personnalisée, recherche mobile, recherche locale.
Grrrrr...
Le bon vieux référencement est-il mort?
Non, ce qui est mort c'est le positionnement universel. Les beaux rapports de positionnement ne voudront bientôt plus dire grand-chose.
En fait, je pense que les résultats personnalisés sont une bonne chose pour ceux qui cherchent à positionner un contenu de qualité.
Pourquoi? Parce qu'ils mettent l'emphase sur des signaux qui pour moi sont plus difficiles à manipuler.
La tyrannie du backlink
Il est très facile d'acheter des liens, de créer des échanges de liens ou des réseaux de sites qui se pointent les uns les autres ou de créer un « zillion » d'inscription dans des annuaires.
C'est, et cela a toujours été, le point faible de l'algorithme de Google basé sur le PageRank et la popularité en termes de liens entrants. Il est facilement manipulable, peu importe les efforts de Google de contrôler le spam et de bâllionner le web en tentant d'imposer la balise nofollow.
Ce qu'il sera moins facile de manipuler en 2010
Imaginons que l'algorithme de Google prête tout d'un coup une oreille plus attentive à certains signaux : l'écho dans les médias sociaux, la qualité de l'interaction d'un visiteur avec un site, etc.
Ce sont des signaux beaucoup plus difficiles à manipuler pour les spammeurs. En effet comment :
- Obtenir des « retweet » si votre contenu est pourri?
- Obtenir des mentions sur Facebook, des votes sur YouTube, etc., si vous vendez du Viagra?
- Obtenir plus de clics sur vos résultats si la description de votre contenu est pauvre?
- Diminuer votre taux de rebond si votre site n'est pas intéressant?
Sur quoi travailler?
La qualité du contenu
Cela a toujours été important et continuera à l'être, mais dans une perspective un peu différente.
En effet, si nous considérons que la valeur d'un site puisse être désormais mesurée, ou influencée, par le niveau d'interaction des utilisateurs avec celui-ci, alors la mesure d'éléments tels que le taux de rebond, le nombre de pages vues et le temps passé sur celles-ci, la sauvegarde des pages en social bookmark, l'inscription à un fil RSS, le chemin parcouru sur le site, etc. prennent soudainement une grande importance.
Produire un contenu captivant et plein de ressources sera peut-être désormais la condition sine qua non à un bon positionnement.
Plus les chercheurs choisissent et interagissent avec votre site, plus celui-ci obtient de poids dans le classement personnalisé de ce chercheur particulier, mais aussi, et c'est fort probable, dans les recherches des chercheurs ayant un type de persona de recherche similaire.
Plus un contenu sera « efficace » plus il augmentera son classement dans les résultats des moteurs de recherche.
L'auteur : Louis Durocher est consultant pour Orénoque interactif, une agence de référencement et publicité internet de Montréal. Lisez-le sur le blogue d'Orénoque.
Cet article est publié sur le blog AxeNet dans le cadre d'une opération de conseils de référenceurs pour 2010. Chaque article appartient à son auteur respectif et bénéficie des protections juridiques relatives au droit d'auteur.
Axenet remercie vivement Louis pour cette publication.
Retrouvez dès demain un nouveau conseil référencement par un autre référenceur professionnel !
Que dire de plus?
Bonjour Louis.
Je ne connais pas votre degré de penchant pour le black hat seo 🙂 mais je ne vous rejoins pas concernant votre affirmation : "Ce sont des signaux beaucoup plus difficiles à manipuler pour les spammeurs".
Je pense tout l'inverse :
- "Obtenir des « retweet » si votre contenu est pourri?" : Quoi de plus facile que de créer une "armée" de bot Twitter grâce à l'API fournie. Les bots se retweetant entre eux (ce n'est qu'un exemple),...
- "Obtenir des mentions sur Facebook, des votes sur YouTube, etc., si vous vendez du Viagra?" : idem
- "Diminuer votre taux de rebond si votre site n’est pas intéressant?" : je vous invite à lire mon article sur le negative analytics ). Le taux de rebond est manipulable...
- "Obtenir plus de clics sur vos résultats si la description de votre contenu est pauvre?" : on peut avoir un contenu pauvre mais une description dans les SERPs attractive ! Par ailleurs, le content spinning permet d'obtenir un contenu correct dans la plupart des cas.
Comme vous le voyez, les solutions ne manquent pas !
Un algorithme qui prendrait en compte le contenu et rien que le contenu rendrait le net plus propre (tout au moins celui accessible par les moteurs) et mettrait sur la touche tous ceux qui pourrissent les moteurs avec leurs pages suroptimisées ET sans intérêt éditorial.
Je rejoins @Olivier
Tyrannie du backlink ?
Je ne sais pas comment vous référencez les gars, mais je pousse particulièrement les pages profondes. Il n'en faut pas beaucoup pour atteindre des résultats puisque personne ne se préoccupe de propager l'intérieur du site, préférant augmenter la valeur de la barre verte en homepage.
En d'autres termes, ce n'est pas tyrannique car il ne faut pas pousser outre mesure. Enfin pour l'instant...
Pour le reste, je rejoins à 100% Olivier. RT et Mentions sont totalement manipulables, ainsi que le taux de rebond.
Malheureusement, Olivier n'est pas bien loin de la vérité. Et c'est la ou il risque d'y avoir des problèmes et l'effet inverse, à savoir, favoriser les spammeurs qui sont parfaitement capable de manipuler tous ces critères. Sachant aussi que certaines activités n'ont aucune vocation à être twittées/facebookées/youtubées que fait-on pour ceux la ? 😉
@ Olivier
Merci pour cette leçon de blackhat, et sur le sujet, je te fais totalement confiance 😉
Là ou je rejoins Louis, c'est sur cet impératif d'avoir des backlinks pour booster un site. Et tout le monde sait à quel point Google reste encore spammable sur ce point. D'ailleurs, Olivier démontre bien que la fin n'est pas pour demain.
Mon autre point d'accord est relatif à la qualité du contenu. Bien sûr, il sera toujours possible d'utiliser des techniques de canailles, mais dans une stratégie de long terme, la qualité perçue par les utilisateurs est pour un site une vague de fond très puissante.
Sans me jeter de fleurs, si je prends l'exemple de ce blog et la répartition de ses référants (ainsi que les commentaires que vous avez pu m'adresser sur l'article relatif au bilan après 18 mois) je pense que son trafic est essentiellement lié au fait que son contenu plait.
Mine de rien, c'est aussi un moyen d'échapper à l'omniprésence de Google en générant un trafic qui n'est pas lié aux moteurs de recherche.
Plus je travaille sur le référencement de sites (en intégrant les notions de SMO), plus je mise sur le trafic qui ne provient pas de Google. @ Laurent, comme tu l'indiquais dans l'article d'hier, la notion des 3 tiers me semble très importante car elle permet de ne pas tout perdre du jour au lendemain en cas de déclassement sur Google.
Bien sûr, je ne suis pas un apôtre du contenu seul, Rudy, Blackmelvyn ou Olivier Tassel nous ont bien démontré que celui-ci peut être manipulé, mais il reste un élément majeur pour fidéliser ou bétonner la transformation, et bien sûr, pour accroitre l'effet de longue traîne sur lequel je mise toujours plus au fil des années.
Ouf : je n'ai pas fait court sur ce commentaire.
En résumé : Si Olivier nous démontre que le SPAM et autres techniques Black Hat ont encore de beaux jours devant eux, je trouve que le fond du billet de Louis reste très juste pour tout ceux qui ne veulent ou ne savent pas utiliser de techniques "proscrites". J'adhère aussi à 100% au fait que si le principe du rapport de positionnement ne voudra bientôt plus dire grand chose, le travail des référenceurs (au sens large) est loin d'être fini. Je dirais même que l'on entre enfin dans une ère un peu plus professionnelle.
Concernant les rapports de positionnement, je suis en train de bosser sur une solution pour niquer Google.
Et j'ai oublié de dire que je suis d'accord sur le fait que les backlinks sont facilement manipulables. Mon opposition à la tyrannie voulait seulement dire qu'il ne faut pas un nombre tyrannique de backlinks pour populariser.
@LaurentBourrelly Il est clair qu'il est pas nécessaire d'obtenir 1 million de backlinks si aucun d'eux n'est popularisé ou de qualité! 1000 backlinks de qualité sont préférables bien qu'un référenceur ne crachera jamais sur une quantité importante de backlinks obtenus facilement.
Quand à l'analyse effectuée dans l'article, je trouve que les nouveaux médias sociaux favorisent le contenu de qualité et innovant (principe du RT). Google favorisera à coup les sites possédant la parfaite panoplie du média social dans le futur (FB, Twitter, Youtube, etc..)
Décalage horaire oblige, merci pour tous vos commentaires. Le débat est intéressant.
@olivier Je n'ai pas de «penchant pour le black hat seo» comme tu dis. Je conçois très bien que ton exemple nous démontre un exemple de manipulation effective. Quelques questions à se poser: Google est-il incapable de déterminer quel compte Twitter est un bot? Il existe maintenant des critères qui permettent de calculer «l'influence» de tel ou tel compte twitter: nombre de follow, nombre de retweet, autorité par rapport à certains comptes, nombres de clics, etc. Évidemment tout est manipulable tu me répondras, alors c'est l'éternel jeu du chat et de la souris avec Google. Personnellement j'essaie d'amener les clients à concevoir qu'ils ont une responsabilité dans leur visibilité et à les amener vers une stratégie de contenu pour asseoir leur autorité. Faut dire que je suis plus dans le b2b.
@Al-Kanz Je pense qu'il y a certains signes que Google accorde maintenant plus d'importance au contenu.
@LaurentBourrelly Je n'aime pas trop l'expression «niquer» Google (au Québec on dirait «fourrer» Google.) Il finira toujours par te «niquer» en retour. Et là tu es baisé (on comprends ça des 2 côtés de l'Atlantique). Non ? 😉
Arff ! J'adore !
J'ai toujours trouvé que les Québécois parlaient mieux le français que nous qui anglicisons tout. Merci pour cette note humoristique Louis.
@ Laurent
Si tu titre "Comment niquer Google" un de tes prochains articles, quoi qu'en dise Louis, je te prédis un buzz extraordinaire à l'est d'Anticosti 😉
Tu as titillé ma curiosité avec ton idée "d'entourlouper" Google (que les suivants n'hésitent pas façon Frédéric Dard) sur des rapports de positionnement, mais je ne suis pas certain d'avoir compris. Ceux-ci sont plutôt destinés à nos clients, non ?
Précision : je souhaite passer outre la localisation, etc. afin de continuer les rapports de référencement et autres analyses de positionnement.
Dans ce sens, je veux niquer Google qui nous a niqué. Bref, niquer le niqueur 😀
Je simplifie peut-être le schmilblick, mais tant que ton logiciel de positionnement n'accepte pas de cookies, ton rapport devrait être 'neutre'.
Pour garantir la neutralité sur le long terme, l'utilisation d'IP dynamique / flottante / proxy / ou cacher l'IP complètement devrait aussi aider.
Ou raconte-je n'importe quoi ?
Une référence à Frédéric Dard... On entre dans la cour des grands là. Et si les prochains articles s'inspirent de San Antonio, alors ça promet ces belles heures de lecture !
@Laurent : tu as Yooda pour cela qui ne tient pas compte de tous ces aspects, c'est aussi simple que cela.
Comme le dis à juste titre Olivier, le référencement black hat a encore de beaux jours devant lui car les données analytics sont facilement manipulables.
Après, je rejoins l'idée que cela va permettre de professionnaliser la profession mais de là à limiter le spam, pas sûr : celui-ci sera moins grossier mais plus subtil, plus vicieux et encore plus tordu.
Pour ce qui est de gonfler le nombre de visites, rien de plus facile que de faire tourner des autosurfs après il est vrai que le taux de rebond est catastrophique 🙂
Outre le fait que le référenceur va de plus en plus faire du web analytics, il va tout simplement traiter davantage de tâches en plus comme les réseaux sociaux... (encore que je ne considère pas que les réseaux sociaux fassent partie sur seo mais du smo).
Finalement, d'ici quelques années, le métier de référenceur va atteindre ses limites et devenir un sacré bordel comme le métier de webmaster de sorte que la spécialisation du métier deviendra crucial et référenceur sera égal à webmarketer.
Peu importe si tu utilises Yooda, machin ou truc. Le rapport ne sera pas universel. Tu peux montrer une position X et le client verra X - 10.
C'est aussi simple que cela!
De toutes les façons, l'objectif du référencement, positionnement... est d'améliorer le trafic sur le site.Seul les résultats de l'analytic sont représentatifs de la qualité du référencement effectué. Que les rapports universels de positionnement soit mort ou pas, du moment que le trafic augmente, le client est content.
Je suis parfaitement d'accord avec le désaccord d'Olivier en ce qui concerne la manipulation des signaux par les spammers. C'est si facile, d'obtenir des dizaines de RT ou de mentions sur Facebook en utilisant des robots semi-humains ou une horde de zombie qui retweet à gauche, à droite, en haut, en bas, dans tous les sens et pour toutes les significations.
Par contre, je trouve que le concept de "personas de recherche" proposé est vraiment intéressant. Ne pas seulement mettre l'emphase sur le contenu en tant que tel, mais sur le profil de celui qui fait un lien vers ce contenu. Plus le profil de la personne qui fait le lien se rapproche du texte vers lequel son lien pointe, et plus elle obtient des "personas points". Intéressant, mais je vois 2 problèmes. 1) Quels sont les critères pour déterminer les "personas points"?; et 2)Un lien qui gagne des "personas points" ne devient-t-il pas un lien par référencement et non pas un lien organique?
La qualité du contenu est toujours essentielle tant pour le lecteur que pour les moteurs. Les medias sociaux sont inévitables, et je crois aussi au référencement par la video. VSEO , article intéressant : [url=http://www.secrets2moteurs.com/le-referencement-video-les-atouts-de-la-video-d-entreprise.htmlles-atouts-de-la-video-d-entreprise[/url]
C'est une périphase pour traduire un conseil de base de GOOGLE : Faites comme si GG n'existait pas quand vous fabriquez votre site.
Et ensuite tout est possible.
Après LA BULLE DES SITES FAITS POUR LES CLICS on arrive aux sites qui gardent les internautes... mais vivent un peu des clics...
stephane
Le Google Bombing fonctionne toujours chez Google. C'est à dire que l'on peut positionner un site sur une expression, grâce aux ancres des liens, sans que celle-ci ne figure sur le site positionné.
Effectivement le concept de personas pourrait être une grande idée; encore faut il que les moteurs puissent avoir un max de données personnelles (encore un agrandissement de la base de donnée . c'est Mr G qui va etre content !) sur les internautes.
Le tout croisé avec la base de leurs achats en ligne + celle de leurs recherches, (affinités, etc..).
Déjà qu'il est relativement possible aujourd'hui de trouver tout d'une personne sur le net, alors tout concentrer sur un profil, cela risque de devenir un jolie commerce.
Quoi qu'il en soit je rejoint les dires de kinaze a ce propos.
je reviens sur cet article un an après, pour faire un petit bilan.
Et bien on peut dire que oui, le social prend de la place, mais à un rythme d'une infinie lenteur....
Les twitts, RT, likes, sont encore à des années-lumières des bons vieux Backlinks...
et la recherche universelle, prend de la place dans les serps, mais pour avoir effectué quelques test, peu de clics encore...
cédric