Quand Sylvain m'a ouvert les portes de son blog, je ne savais pas trop sur quel axe partir, le thème suggéré et non imposé étant les tendances SEO 2012. Mon blog étant à priori plus technique que théorique, je me suis dit que c'était l'occasion de changer de style.
2012: le CP sera-t-il encore roi?
2011 a été l’année des communiqués de presse, ils ont fleuri de toute part. Nous continuons de créer des liens mais d’une manière moins risquée pour ne pas être détectés par les radars de Google. Nous faisons croire que nous sommes des gens bien qui respectons les règles : deux à trois liens in-text, pour un maximum de 300 mots. Oui, cette technique est efficace car elle nous blanchit face aux interdits. La rédaction Web, c’est l’avenir du lien, clairement. Mais écrire juste pour le beau lien, est-ce la seule issue pour appâter le client ?
J’ai le sentiment que le focus a été un peu trop axé sur ces plateformes. En soit, elles ne sont pas négatives puisque le contenu est propre. Souvent les articles sont correctement rédigés, mais j’ai juste la sensation qu’on est en train de mettre une belle petite pagaille... Des contenus pour des contenus. Au final, si les CP ressortaient avant les landing pages avec un taux de rebond de 100%, on aurait pas raté des visiteurs par hasard ? Et les plateformes sur lesquelles vous
soumettez vos articles, sont elles linkées? Dans le cas contraire, je crains que vous perdiez votre temps...
La rédaction Web (et/ou le bon «content spinning») est très chronophage, mais à terme les contenus que vous rédigez pour ces plateformes, les surveillez-vous? Qui vous dit que le site de CP sur lequel vous avez fait votre dernière soumission ne va pas mettre vos liens en nofollow pour fidéliser un concurrent d’ici quelque temps ? Une fois posté, les liens de votre CP ne sont plus de votre ressort. Et pendant ce temps là, certaines plateformes de CP mettent de l’Adsense à tout va grâce au contenu que vous leur avez offert, un business model ?
L’année qui vient continuera probablement sur la même lignée puisque cela reste un moyen sûr et propre pour remonter dans les SERP. Mais cette structure, de 2 à 3 liens pour 250 à 300 mots, Google n’est-il pas capable de l’identifier ? On peut imaginer qu’à terme avec son algorithme, il pourra mettre les sites qui s’apparentent à ces plateformes de CP dans la case “liens artificiels” et leur donner moins de poids comme il l’a fait pour les annuaires. Les équipes qualité Google nous ont à l’oeil. Après les fermes de liens, nous faisons dans la ferme de contenu et encombrons notre espace de travail.
Je ne suis pas en train de scier la branche sur laquelle nous sommes assis, juste en train de me dire qu’il y a peut être d’autres solutions alternatives à étudier, et que ne voir que par le CP n’est pas une fin en soi.
2012: Les digg-like seront-ils toujours un passage obligé?
Au sujet des digg-like (forme de CP allégés), c’est un peu la même chose. Une ossature souvent similaire d’un digg à l’autre pour peu de valeur ajoutée au final. On creuse des galeries souterraines (le jeu Digger, ça vous parle?) pour créer des liens, mais à la fin on aura creusé tellement de tunnels que le sol se détruira au fur et à mesure.
Nous perdons un peu l’origine première du nom Digg: Une brève et un titre pour valoriser des liens via un système de vote. ça s’appelle bien «like», on fait comme si, mais quel est l’intérêt pour l’internaute? Il connait les flux RSS maintenant vous savez.
Gardons à l’esprit que Google n’a pas des ressources infinies: plus il crawle ce genre de sites, moins il passe de temps chez vous et plus nous lui compliquons la tâche. Si, en apparence, la vitesse de chargement a une importance aux yeux de Matt Cutts pour le confort de l’utilisateur final (avec une faible place dans l’algorithme), n’oubliez pas que c’est aussi pour faciliter le travail de leurs crawlers qui coûtent très cher.
Ces bots ne parcourront pas la totalité des pages SEOptimisées de vos sites dans de brefs délais comme vous l’auriez souhaité pour la simple et bonne raison que vous leur faite perdre leur temps ailleurs.
Quelles alternatives pour mes liens?
Avant de nous lancer dans du netlinking orienté CP/digg-like, vérifions la qualité de notre maillage interne. J’ai déjà vu remonter certaines requêtes uniquement en ayant fait des rechercher/remplacer directement dans la base de données SQL sur des variations d’expressions non encadrées par des <a href></a>. Bilan: 5 à 6 positions gagnées sur une première page pour plusieurs mots-clés (mais il faut déjà que le site en question ait de la bouteille, je vous l’accorde).
Je n’ai pas de solutions miracles contrairement au Baume référencement. Au sujet des CP, nous devrons peut être créer des contenus sans liens sur ces sites pour les rendre plus crédibles? Trois textes dont un seul avec liens par soumission? Avec une vision un peu simpliste on pourrait se dire: si une page contient des liens c’est que son contenu n’est pas complet puisqu’on pousse l’utilisateur à aller voir ailleurs.
Certains sites de CP sont utiles pour l’internaute car ils sont créatifs, originaux et apportent un plus, mais c’est loin d’être le cas de tous.
D’un pays à l’autre, les approches ne sont pas forcément les mêmes. Si on regarde le SEO en Allemagne, les CP ne sont pas trop utilisés car souvent trop généralistes. Ils préfèrent les blogs satellites thématisés avec seulement 3 billets sur 5 contenant des liens, billets composés de 250 à 400 mots et généralement accompagnés d’une image/vidéo. Ces blogs auront à priori plus de poids car le squelette des articles sera plus varié. Mais on brouille ainsi encore les pistes, pour paraître le plus naturel possible et on génère du “bruit” avec des contenus parfois à faible valeur ajoutée, en augmentant le temps nécessaire à la recherche de la bonne information.
Et les liens qui se baladent dans les pages: footer, blogroll & co, on continue?
Oh que oui! Je parlais avec un contact sur Skype hier, qui avait pris le temps de placer des communiqués de presse à l’aide de nombreux comptes auteur pour se positionner sur une requête. Il est passé à la vitesse supérieure quand il a constaté que cette méthode n’avait pas porté ses fruits en se mettant au spam, spam, spam... Et là, il est passé de la 20ème position à la 12ème position. Je ne suis pas pour ce genre de pratiques, mais quand même, on a beau dire que les liens qui ne sont pas intext n’ont pas de valeur, preuve que si. D’ailleurs, regardez le premier résultat sur la requête «référencement»: http://referencement.espace2001.com/ et analysez leurs backlinks. Alors, c’est propre?
Et le SMO, c’est toujours à la mode ?
Plus que jamais! Les signaux sociaux ont bel et bien un impact sur le SEO, on a pu le voir dans plusieurs tests, mais cela semble assez éphémère. On est dans le temps réel, les SERP veulent coller au mieux à l’actualité et à ce qui se dit sur Facebook, Twitter qui est considéré comme important à l’instant T.
Je me pose juste des questions sur la présence de boutons “j’aime”, “google+1” sur les homepages de nos sites. Tout le monde le fait, mais cela a-t-il un impact sur le positionnement à long terme ? Probablement. A défaut, ça permet de gagner en visibilité/notoriété sur ces réseaux.
Malheureusement le SMO n’est pas applicable à toute les thématiques, difficile d’animer une communauté autour des prothèses dentaires par exemple (des bons web-marketeux y arriveront peut être, qui sait). Plus qu’une aide du SMO pour le SEO, le SMO est surtout un sacré levier à ne pas négliger dans notre métier en mutation.
2012, pensons à l’utilisateur
Il m’arrive encore souvent de tomber sur des pages de résultats indexées dans Google vers le site commentcamarche.net, c’est pénible, il n’y a jamais la réponse à ma question. Maintenant, dans les SERP, dès que je vois commentcamarche.net, mon oeil fait abstraction et je clique sur le lien juste en dessous. J’ai peur qu’avec les CP on en arrive un peu au même point.
L’arrivée des outils d’aide au post automatisé sur certains sites de CP (comme par exemple SENuke X) risque clairement d’accélérer la réponse de Google à ces pratiques, 2012 sera peut être l’année de la pénalité des sites de CP, ils nous répondront comme ils avaient fait pour les annuaires, souvenez-vous.
Le contenu est roi, l’internaute aussi: c’est le client. Ne le zappons pas.
L’utilisateur non-expert risque d’être perdu entre CP, digg et autres pages de résultats indexées. Ne sommes nous pas en train de le noyer à cause de ces contenus destinés aux moteurs ? Avez vous déjà atterri sur un site de CP suite à une recherche en vous disant «voilà l’information que je souhaitais» ? Allez vous sur des annuaires pour chercher des sites en particulier comme à l’époque de Yahoo Directory il y a plus de 10 ans ?
Tous ces moyens de promotion du lien sont utiles pour nos stratégies SEO mais ils vont devenir une plaie pour l’expérience utilisateur. Des sites, pour des liens, pour les robots. Et toi, internaute en bout de chaîne, et bien débrouille toi pour trouver l’information/le produit que tu souhaites, ce ne sont pas les SEO qui vont t’aider.
C’est bien de ranker, mais pour de-ranker aussitôt derrière car la landing page qui s’est retrouvée en première position est mal construite...
Google nous pousse à bout mais j’ai parfois l’impression que nous ne lui facilitons pas la tâche. Ne nous trompons pas de cible, l’objectif est bien d’atteindre l’utilisateur et non le robot.
Merci encore à Sylvain de m’avoir proposé d’écrire un article pour le blog d’Axenet ainsi qu’a La fille du référencement et Guibfrance pour leurs remarques et la relecture, sans oublier Pelos qui cherche toujours une nouvelle maison.
Aymeric Bouillat // Blog SEO d’Aymeric // @aymerictwit
* Merci à Aymeric pour cet article en guest blogging publié dans le cadre Tendances SEO 2012.
Google conseille effectivement de faire un site pour l'utilisateur. Mais quand cela ne suffit pas et malgré tout le soin apporté à son site, son contenu pour l'utilisateur etc... je comprends que certains soit tentés de passer du côté obscur !
Je suis assez d'accord avec toi Aymeric pour les CPs, notamment sur le fait qu'il est de bon ton de vérifier si le site où l'on dépose ses articles a pris le soin de se référencer un minimum.
Moults webmasters se lancent dans l'édition de sites de publication d'articles car c'est la mode, comme les annuaires à une époque, mais à part récupérer du contenu gratuit pour leur adsense, ils ne se démènent pas trop le coquillage pour les GW (gentils webmasters) qui font tout le contenu du site!
Un article intéressant, mais que je trouve un peu trop alarmiste.
Effectivement les CP sont fait pour noyer le poisson et améliorer le positionnement, mais justement, ils introduisent un site internet, et par définition, si l'internaute arrive sur cette page et qu'il suis un lien, il trouvera ce qu'il cherche contrairement à comment ca marche qui pose souvent la question, mais n'y réponds que rarement.
Bref, je pense que les bons sites de CP avec un contenu éditorial clair survivront encore longtemps, tout comme les bons annuaires aujourd'hui.
Article complet présentant problème et alternative.
Je pense à une chose en lisant ton article, cela serait intéressant de réunir des témoignages de référenceur du monde entier (qui référence pour Google bien sûr, donc on va éviter les chinois...), et leur demander comment ils procèdent !
Bonjour !
Eh bien, ce concept des tendances 2012 me plait beaucoup. C'est vraiment intéressant de pouvoir confronter d'autres point de vues en si peu de temps, ça fait un peu état des lieux du SEO 2012.
Donc, merci Aymeric et surtout merci SR pour la démarche ! 🙂
Ça fait plaisir de te lire ici Aymeric, tu as sûrement inclus dans ton texte quelques mots qui en rebuteront certains mais tu poses un vrai problème de fond : l'utilisation à outrance de CP n'aide pas si c'est la seule tactique employé.
Toutefois, tu soulèves de nombreuses questions et apportes peu de réponse. Le fait de faire des liens intext n'est-il pas contre l'utilisateur aussi ? Cela ne lui gêne-t-il pas la lecture ? Et pour le taux de conversion, ne dit-on pas qu'il faut mettre le moins de distraction possible ?
Faire du lien propre a toujours été un casse-tête. Après distinguer le contenu d'un site de CP d'un blog lambda va être difficile...
On en reparle en 2013 😉
On essaye de faire du contenu de qualité mais Google ne le voit pas toujours... Bien obligé de filouter de temps en temps! 😮
Très bon article, qui présente bien les techniques utiles à l'heure actuelle.
Malheureusement, le spam porte encore ses fruits donc le web cleen n'est pas encore pour demain ;(
Bonjour,
Je suis assez d'accord sur plusieurs points. En effet, l'année 2011 s'est très tournée vers les sites de CPs et il est vrai qu'on ne vérifie pas toujours les liens des sites sur lesquels on a posté un bel article unique. De plus, le fait que la plateforme ne nous appartient pas, on a aucun contrôle dessus et on peut donc perdre l'article ou les liens (et donc une partie de son travail = une partie de son référencement), c'est pourquoi j'aime bien l'idée allemande autour des blogs thématisés. Cependant, lorsqu'on publie toujours sur le même blog, on finit par obtenir trop de liens depuis le même site et ces liens comptent alors de moins en moins pour Google :-(. Tout ça pour dire que je trouve qu'établir une stratégie de linking est plus compliqué qu'il n'y parait.
En tout cas, je crois que je vais aller vérifier mes articles sur quelques sites de CPs :-).
C'est le 1er article orienté SEO de l'année 2012 que je lis et il est très intéressant. Finalement, faire de beaux "communiqués de presse" ou spammer des blogs à foison, c'est un peu pareil : ça fait avancer notre positionnement mais c'est de la pollution pour l'utilisateur.
Mais pour l'instant, je n'ai pas trouvé d'autres carburants à liens propres et réellement efficaces.
Oui, très bonne démarche.
Concernant les cp, je suis pour ma part certaine que tôt ou tard, cela sera déclassé par Google. Comment ne pas prendre cette manip pour du spam ???
Écrivons des CP pour des humains et pas uniquement pour Google. L'origine du CP (avant Internet...) est d'informer, de relayer dans les médias un nouveau produit, service, événements, etc pour un humain pas pour un robot.
Je lis beaucoup de CP "limite" avec 3 fois un mot clé répété dans 3 phrases, des phrases au sens "bizarre" (spin propre ?), c'est pas beau à lire...
Si il devient intéressant de les lire, un retour à la qualité, ce sera toujours un bon moyen de susciter un intérêt chez le lecteur et donc une valeur ajouté pour son entreprise.
Peut être que Google le détectera ?
Humble avis....
Du lien, toujours du liens, cela ne changera pas demain. 😉
Par contre, malheureusement les CP ne suffisent pas pour positionner n'importe quel site sur n'importe quelle requête.
Bel article Aymeric.
La réponse, c'est sûrement la notoriété : se créer une vraie notoriété pour obtenir en plus des liens "artificiels" de vrais liens que d'autres ne peuvent pas obtenir. Dans le livre numérique, par exemple, obtenir un lien d'Amazon en étant distribué par la boutique Kindle apportera surement plus qu'un lien de communiqué de presse où effectivement google ne va pas tarder à comprendre l'utilité réelle de ces sites... même s'ils sont encore utiles !...
Perso, je bannis de mes campagnes de linking tous les annuaires, Digg like, et autres sites de "CP" qui contiennent le mot SEO dans le domaine.
Peut-on envoyer à Google un signal plus clair que ce site sert au spam ?
Bonjour Aymeric,
C'est vrai que 2011 a été l'année des sites de cp (et il y en a d'ailleurs des très bons), mais aussi des nouveaux digg-likes. Ces deux techniques croisées permettent de varier les domaines référents, et de faire des liens d'une qualité élevée (la plupart du temps). Quand aux annuaires, je trouve personnellement qu'ils ont de moins en moins de poids en terme de référencement...
Yvan
Très bonne analyse que je partage à 100% sur les CP.
Une façon de vérifier si une plateforme de CP est linkée est de se créer des Alertes Google et de voir ainsi si elle ressort sur les mots clés sélectionnés.
Une très bonne vision des choses actuelles, mais pour la conclusion le travail d'ergonomie et de contenu de la page n'est plus vraiment un travail de seo. Et pour ranker cette landing page on est toujours sur les même techniques citées plus haut.
En effet Aymeric, tout propriétaire de site est maître sur son domaine et sauf contrat signé, il peut prendre des mesures qui ne plairont pas aux apporteurs de contenus. On sait même que cela s'est déjà vu. Alors ? Diversifier les risques est surement indispensable, en ne comptant pas trop sur un seul endroit pour booster son activité...
Excellent article Aymeric !
Les CP ne sont peut-être pas la méthode de netlinking la plus "spammy" mais je partage ton opinion. Trop de CP tue les CP. On les utilise à tout va et on en vient à ommettre l'utilisateur.
Il ne faut pas non plus oublier que l'aquisition de trafic reste avant tout du marketing. Les techniques de linkbaiting qui consistent à créer un contenu original et pertinent sont peut-être les difficiles à mettre en place mais les plus efficaces.
Salut,
Si ma mémoire est bonne, le "like" de digg-like ne vient pas d'abord de "aimer", mais de "comme". C'est à dire que les sites de digg-like sont comme digg.com.
Très bel article qui résume bien la situation actuelle sur l'émergence et la prolifération des sites de cp qui ne sont qu'en faite que des réseaux de spams (plus ou moins propre) pour le ref
Bonjour,
Merci pour l'article, de ma petite expérience j'ai réussit à ranker grace à des articles sur des communiqués de presse,
Dans l'absolu, si le contenu est unique, je vois mal comment google pénaliserai ces sites, c'est un peu trop tot je pense pour signifier la fin de ces plate formes au niveau referencement.
Les grands esprits se rencontrent. Je me tâtais justement à écrire sur mon blog un truc du style. Ecrire pour son propre site, ca prend déjà énormément de temps mais au final, ca apporte bien souvent plus de résultat sur le court terme. Perso, mes résultats me confortent dans l'optique "optim technique + contenu" + eventuellement SMO mais même ce levier là est super aléatoire et, à moins de t'appeler korben ou kriisiis ou , je suis pas sûr de l'efficacité réelle (sauf si tu as les 2 sus-cités dans ta liste d'amis et que tu les connais IRL peut être...)
Concernant les CP je pense que peu de gens se font des illusions sur la qualité des liens qui s'y trouvent.
Mais faute de mieux...
Après on y trouve parfois d'autres avantages, sur certains CP, les articles que l'on poste se trouvent régulièrement en tête des actualités web heu Google...c'est pareil non? 😉
Bonne synthèse. Il va effectivement falloir en (re)mettre un coup sur le SMO, avec des outils de veille adaptés.
Dans la plupart des cas j'essaie tout de même de publier quelques CP et aller sur quelques annuaires pour le lancement d'un site, mais plutot sur des sites ciblés que ces "annuaires avec SEO dans le domaine", clairement pas faits pour l'utilisateur...
Je te le redis Aymeric, ton article, il déchire !
100% d'accord (voire 120% parfois), d'autant que tu m'as coupé l'herbe sous le pied, je te le rappelle...
Bref, quel avenir pour nos stratégies de linking ? 2012 apportera peut-être quelques réponses...
Bonne année à tous et toutes
que dire de tout cela, que comme toutes les bonnes choses, elle vont avoir une fin, bien sur on a tous fait un effort
sur le duplicate sur les articles de qualité. etc...
et comme certains annuairistes nous l'ont bien fait savoir, ils ont fait la chasse à la "no quality" je pense à Hervé "infinisearch" Olivier "Netaddict" et bien d'autres encore.
Google va certainement faire le ménage la dedans.
moi je suis un peu revenu de tout cela
je fais maintenant des supers articles pour mes internautes, enfin j'essaie 🙂
je crois que le premier conseil de google, c'est penser pour l'utilisateur
Bonjour Aymeric, certes le constant est un peu alarmiste. Mais il n'y a pas de réelle solution - à part une diversification des liens sur différents sites.
Cela permet juste de réduire le risque.
Cependant le mouton à cinq pattes n'existe pas.
Des links - du contenu régulier - des Digg - des CP - la routine du référencement toujours aussi chronophage.
Ton analyse par contre n'a rien d'alarmiste sur le fait que trop d'informations finalement rend illisible le contenu du message. Mais quand je vois que l'utilisateur lambda n'a toujours pas saisi qu'avant de lire un article - il fallait aussi lire la date de publication (en haut à gauche) - il y a encore du chemin à parcourir.
Pour résumer chacun trouve sa recette de référencement - et cela dans le temps.
Aujourd'hui CP - demain links - dans le futur certainement le SMO et dans 2 ans - les paris sont ouverts.
Ah oui - bonne année à toutes et à tous.
Fred
Un article très intéressant. Bonne continuation.
Merci pour vos commentaires et vos retours/avis, le débat est lancé et j'en suis vraiment ravi, c'était aussi le but de cet article. J'ai vais essayer de répondre à tous les commentaires donc pardonnez-moi si je me répète. J'ai omis de parler du Duplicate Content qui à mon avis doit être traité bien avant toute stratégie de netlinking... et ça n'est pas toujours le cas. Les CP c'est bien, mais en en faisant un phénomène de mode, ils vont se faire attraper, comme les annuaires!
@Virginie @Emeline : Google conseille de faire un site pour l'utilisateur, mais Google ou pas, il y a toujours un utilisateur pour cliquer sur ces liens. Les initiés savent où ils atterrissent en arrivant sur un site de CP. Les "internautes du dimanche" peuvent être surpris en tombant dessus, et on ne les aide pas forcément pour la suite. Pour ce qui est du côté obscur, on est effectivement tenté de passer par ces plateformes, et je pense que c'est nécessaire. Mais il faut que cela fasse partie d'une stratégie globale (a nice beautiful linkwheel), et qu'on pense toujours à l'utilisateur malgré tout en rédigeant ses CP... Libre à chacun d'utiliser d'autres méthodes!
@Samuel : C'est sûr que certains sites de CP ne sont vraiment pas qualitatifs...et ils poussent parfois comme des champignons. Mais au milieu de ceux là, il existe des sites de CP de qualité! Des rédacteurs Web que je suis sur Twitter tiennent de très bons sites de CP, mais laissez les faire leur métier, ne vous essayez pas juste parce que c'est la mode... Je ne jette pas la pierre sur les sites de CP, c'est plus une réflexion globale.
@Djolhan : Seuls les meilleurs survivront, entièrement d'accord.
@Arnaud @LuniCréa: C'est l'une de mes résolutions 2012: regarder de plus près ce qui se passe ailleurs... Vous avez raison, ça serait intéressant de confronter différents avis, je pense faire quelque chose en ce sens prochainement. Il y a de bonnes choses à prendre un peu partout, c'est assez étonnant les différences entre toutes ces stratégies SEO. Elles fonctionnent parfois toutes d'ailleurs au final: c'est comme Photoshop, une usine à gaz mais on peut arriver au même résultat de 50 manières différentes, n'est ce pas Sylvain 😉
@Vincent : J'apporte peu de réponses car je n'en ai pas et je ne prétends pas en avoir, mais je pense qu'on doit tous se poser ces questions. Tu as raison, certains ne voient que par le CP, ça ne peut pas être le moteur de tout! On en revient toujours à la grande question, où et comment faire des liens. Pour ce qui est de distinguer un site de contenu et un site de CP, ça ne doit pas être bien compliqué pour Google, souvent des plateformes WP, les mêmes plugins/addons, toujours le même schéma sans oublier que bien souvent, ces sites sont liés entre eux.
@Shelko : Essayons de faire un peu plus dans le SEO écolo ou Green SEO, même si ça reste utopique sur un bon nombre de requêtes...
@Chloé : Totalement d'accord avec toi sur le contrôle des CP. Pour la stratégie de netlinking, c'est beau sur le papier mais dans la réalité, ça devient vite complexe tu as raison.
@Puntocano : Il doit y avoir un juste milieu, mais probablement avec des résultats un peu justes du coup
@Hélène : Je pense qu'il faut varier les plateformes, et ne pas utiliser n'importe lesquelles. Se placer en tant qu'internaute lambda sur une plateforme de CP devrait déjà apporter quelques réponses: est-ce clair? M’apporte-t-on des informations qui répondent à mes besoins? Ou le cas échant, des liens vers ce que je recherche?
@pierre : Tu résumes ma pensée en quelques lignes 😉
@Aurélien : Non, pas prêt de changer! Merci du compliment sinon 🙂 Ton ancre est vraiment ... comment dire... ^^
@MagicYoyo : +1
@Mickael : Bonne astuce, merci pour cette technique.
@Benjamin: Faire en sorte que ces différentes compétences s'accordent, c'est que qui rend ce métier passionnant à mon avis.
@jacques : Et oui, la linkwheel, toujours et encore.
@Florian : Merci! Impatient de te lire d'ailleurs. Le linkbaiting, c'est la cerise sur le gâteau !
@Nicolas : Oui c'est bien ce que je voulais dire, c'est comme un digg mais bien souvent sans le système de vote. Cela me semble tout à fait justifié dans certains domaines ou thématiques très spécialisés. Je prends comme exemple Veille SEO (http://www.veille-seo.com) car il permet de faire de la veille sans perdre trop de temps sur les réseaux sociaux qui sont chronophages à souhait! A propos des digg-like, voici un article intéressant de Martin Korolczuk que j'ai retrouvé: http://unearaigneeauplafond.fr/digg-like-francophones/
@khaldou : Oui on peut ranker avec des CP et c'est d'ailleurs pour ça qu'ils existent, tant qu'ils restent convenables pour l'utilisateur et avec une valeur ajoutée. On verra bien quand Google s'y attaquera, ce qui n'arrivera peut être pas aussi. Mais mieux vaut prévenir que guérir.
@Loiseau2nuit : Nous pensons pareil à ce que je vois. Il y a déjà tant de chose à faire avant les CP (maillage, Duplicate Content, opti-techniques onsite). Non je ne connais pas Korben ou kriisiis IRL mais ça peu aider, c'est clair 😉
@Yohan : Les sites de CP qui font partie de Google News sont à mon avis une réelle valeur ajoutée, tu fais vraiment bien d'en parler. ça devrait être l'un des facteurs principaux de choix lors de soumissions.
Amha, Il est certain que Google peut détecter sans soucis les cp. Techniquement ça semble pas difficile (les cp français sont facile à détecter, les site ayant des bl provenant de cp sont assez facile à deviner également (ratio de modele de bl etc)
Ahma, gg le voit, mais tant que c'est bien fait, et c'est susceptible d'apporter "une réponse" à l'utilisateur final, cela reste une source de revenu pour le géant (alors que "nettoyer/filtrer" les serp est un cout).
Bref je suis sur que les cp ont encore de long jours devant eux tant que cela reste propre.
Les digglikes déclinent et ils ne peuvent pas tous être un véritable outil de SEO. Plus la modération contre le duplicate content sera forte, plus les CPs et digglikes auront du poids.
Ce qui sera d'autant plus vrai si la plateforme est spécialisée ou si son auteur passe vraiment du temps à la promouvoir auprès des utilisateurs, des lecteurs et des moteurs de recherche.
Pour ma part, je continue à croire aux CP. Du contenu reste du contenu. A partir du moment où il est travaillé d'un point de vue orthographique, syntaxique ou grammatical, je ne vois pas pourquoi on serait pénalisés. Toutefois, je pense qu'il ne faut pas faire du lien pour faire du lien mais réfléchir à une véritable stratégie qui fait se croiser les liens entre eux. La diversité est pour moi un gage de réussite en SEO. Pour le SMO, c'est une certitude que la combinaison des deux favorise le positionnement d'un site web.
Ho oui à mon avis les sites de cps ont encore de beaux jours devant eux, comme le bon vieux lien en blogroll qu'on pensait ne plus servir à rien qui finalement s'avère très efficace si la thématique du site linké est proche ou identique.
Visiblement vous dites que les annuaires ne sont plus du tout efficaces, mais je ne pense pas que ce soit le cas. Ils ont encore une grande efficacité, mais le problème c'est que dans de nombreux cas, les administrateurs de ces derniers ont jeté l'éponge et ne valident plus les sites en attente.
Le gros avantage des sites de cps c'est indéniablement les comptes auteurs qui permettent de ne plus attendre le webmaster pour se faire valider un article et donc des campagnes de netlinking plus facile à suivre contrairement aux annuaires où nous pouvons attendre parfois 1 mois avant de voir notre fiche apparaître.
Tout est un problème de mesure en fin de compte. Parce que, si l'on ne fait pas de CP, pas de Digg-Like, pas d'annuaires et pas d'article dans une quelconque linkwheel que fait-on ? Il faut peut-être se contenter de soumettre son site dans les meilleurs sites des différentes solutions proposées.
C'est vrai qu'en lisant l'article, au début je me suis dis comme Vincent que tu n'apportais pas vraiment d'orientation vers quoi se tourner. En fin de compte, tu soulèves la problématique de la pénalisation des CP et des Digg-Like, ce qui est tout à fait justifié, et tu recommandes de se tourner vers les réseaux sociaux. Malgré tout, d'un autre côté, on voit mal les réseaux sociaux prendre aujourd'hui une place plus importante puisqu'il existe des limites pour que les moteurs de recherche puissent leur donner plus d'importance. Comment les moteurs de recherche peuvent-ils donner plus d'influence aux internautes sans perdre encore plus le contrôle ? Lorsqu'on parle de perdre le contrôle, cela revient à dire : que la pertinence des résultats se dégrade et donc que les pages de résultats soient encore plus spammées qu'avec le système actuel.
Des réflexions qui doivent faire réfléchir les ingénieurs Google en tout cas. 🙂
Bonne année à tous.
Très bon article. Il est fort probable que les sites de CP à termes auront moins (plus du tout?)d'importances. Ces liens n'ont rien de naturel. Combien de Communiqués de Presse sont intéressant ?
Le seul vrai but n'est pas d'obtenir un lien ? La plupart bâcle le contenu pour avoir leur lien.
Il serait donc logique que Google donne beaucoup moins d'importance à ce type de lien.
Mais pour le moment pourquoi ne pas se faire plaisir ? 🙂
J'ai pas lu tous les commentaires désolé. Moi je me pose une question quand tu dis google risque de pénaliser les sites de cp. N'est ce pas déjà le cas ? Y'a t'il beaucoup des sites de cp avec un trafic concéquent ? Moi je pense que google a déjà catalogué les sites de cp, pour l'instant sa marche encore pour le ref mais on verra par la suite.
Le paradoxe Google : faire un site pour l'utilisateur avec des liens naturels. mon c... . L'exemple que tu site (référencement 2001),mais il en existe des milliers d'autres, ou des sites se positionnent avec des backlinks de boeufs et de la soupe pour contenu prouve que le "soft" BH a encore de beaux jours devant lui.
Tout à fait d'accord sur le fait qu'on oublie trop souvent l'utilisateur et qu'on noie le web de pages inutiles pour promouvoir nos services. Mais j'ai bien l'impression qu'on est obligé d'en passer par là
Oh que cet article est rafraîchissant... Qu'il est bon de revenir aux bases et d'oublier un peu ce robot-panda. C'est amusant de lire ici que vous ne lui facilitez pas la tâche alors qu'ailleurs il est plutôt diabolisé. On le plaindrait presque.
Je suis vraiment convaincu par l'idée que tout ce contenu 'artificiel' brouille le web. Le problème c'est que ça marche et que pas mal de gens gagnent leur vie avec non ?
Lorsque j'avais lu ce post sur le SEO en Allemagne, cela m'avait donné pas mal à réfléchir.
Je trouvais intéressant le concept des blogs très thématisés.
Je me demande toutefois comment ils font pour obtenir des articles sur lesquels le rédacteur ne peut pas poser de liens.
En revanche, le fait d'être concentré sur une thématique unique est sans aucun doute un vrai plus pour ces blogs en terme de ranking.
Reste que pour la personne qui vient poser des liens, une fois que l'on en a obtenu 2 ou 3 à partir de différentes pages d'un domaine, je trouve peu rentable le fait d'aller en chercher plus, surtout s'il faut faire trois articles pour avoir un lien. Bref, sacré organisation.
Concernant la pollution du web par des contenus pas forcément indispensables, je me posais déjà la question ici : https://blog.axe-net.fr/les-mfa-made-for-adsense-sont-ils-tous-des-pollueurs/
@ Aymeric
Tu as la palme de l'article le plus long de ce blog 🙂
Bonjour,
Je suis relativement nouveau dans le petit monde du référencement.
Je suis en train de lancer un site de Communiqués de Presse (manifestement trop tard d'ailleurs) et j'aurais souhaité avoir vos avis sur le service (règles de soumission trop/pas assez strictes, fonctionnalités manquantes, qualité du SEO, etc.)
Si vous avez quelques minutes pour aller y jeter un œil ce serait vraiment sympa :
Merci et excellente année 2012 !
Article intéressant et diablement long pour ce blog.
Merci à sylvain pour tout ces petits points de vue apportés par ses confrères.
Le CP poubelles pullulent sur le web mais un bon CP sur une bonne plateforme apporte une bonne fréquentation.
Je suis d'avis de fournir au plateformes bien gérées du contenu satisfaisant pour l'utilisateur; la plateforme gagne en sérieux et, bien sûr, pour aller plus loin, l'utilisateur a toujours intérêt à venir sur le site ciblé.
Pour les digg like c'est plus difficile, et pour ma part trop court pour vraiment apporter une vrai valeur à l'utilisateur; je doute que cela soit vraiment une entrée vers une transformation.
Wilfried
Super article, comme toujours. Par contre, en effet, peu de solutions...
Question peut-être naive mais : une fois le contenu de qualité écrit (linkbaiting) et le SMO mis en place > Si pas de Cps, annuaires, digg... Euh... Comment faire du BL proprement ? (-;
Google search à pour objectif de faire du fric => ca passe par la pub => qui ne fonctionne que si du monde click dessus => ce qui n'est possible que si du monde utilise le moteur de recherche => se qui n'est possible que si il donne des resultats pertinents => et cela passe notamment par le fait que les gens "fabricant" des sites et/ou les référençants est envie de (ou puisse) bosser leurs ref dessus.
Imaginons demain que google soit totalement opaque pour les seo, et donne des resultats parfait pour les utilisateurs. Et bien nous aurons vite fait de basculer chez un concurrent. Certes c'est pas évident, ca peut prendre un peu de temps au début, mais ca arrivera. Suffit de penser aux milliers de boutons de téléchargement de firefox il y quelques année de cela, forcant ie à perdre des parts de marché et bien obligé de réagir (certes extrêmement lentement, mais c'est microsoft aussi, ils réagissent super lentement sur tous ce qui touche au net. Je me demande quand même comment ils ont pas vu le marché du net arrivé et comment ils ont fait pour pas être dans le coup.) .
Je partage ton avis sur le fait qu'on travaille trop souvent pour Google avant de penser aux utilisateurs.
Quant aux fermes de contenus (cp, digg), je pense (en croisant les doigts) qu'elless ont encore de beaux jours devant eux. Le lien reste un critère essentiel dans l'algo de Google.
Enfin je trouve une personne qui pense pareil. Même en étant référenceur on peut s'offusquer de la qualité de certaines pratiques (je ne parle même pas du spam pur et dur!) mais de la soumission aux différents CP ou annuaires. Les CP étant pires pour moi car il oblige souvent la rédaction de contenu, celui-ci sera quasiment toujours un spinning de l'idée principale de la page à faire remonter. Quel intérêt? Aucun ! Google devrait sérieusement envisager une nouvelle approche du référencement naturel.
Bonjour.
Je n'ai pas pu lire tous les commentaires, donc la remarque a déjà été faite, mais il me semble que tous nos sites de CP un peu "spammy" (je ne parle pas de "vrais" sites de presse de qualité bien sûr), se sont pris des claques sur le positionnement à la suite d'évolutions comme panda, et que c'est à chaque fois le sens dans lequel semble évoluer l'algo: nettoyer la page 1 des SERP pour n'y laisser que des vrais sites.
Pour autant, je ne sais pas pour vous, mais je n'ai pas remarqué que mes sites dont le réfèrencement était basé sur de la publication douteuse sur ce genre de plateforme avaient régressé.
J'en déduis donc qu'un déclassement (je ne parle pas d'une sortie d'index) des lieux de publis n'affaiblit pas l'effet de ranking du CP vers le site pointé, et que ce sont juste que ces sites spammy deviennent moins visibles.
Au final, je n'ai donc qu'assez peu d'inquiétude autant sur le fait que l'efficacité de ces méthodes de publications artificielles soit plutot stable que sur le fait qu'en les déclassant, google continue à améliorer, si ce n'est sa pertinence, au moins la qualité de l'expérience des utilisateur du moteur.
Bref, je ne partage pas l'inquiétude de ce billet.
Mais bien sûr, j'ai peut être tort ! 😀
Merci Aymeric pour cet excellent article.
Ma réflexion sur les sites de CP et autres :
In fine, la seule possibilité qu'aura Google de départager les bons sites de CP (Digg-Like, etc.) des mauvais sera de voir le trafic que ceux-ci génèrent, le nombre de tweets et FB likes qu'ils reçoivent, etc.
Pour Google, le SMO représente une validation humaine dont ils ne pourront bientôt plus se passer ! Tweets, likes, etc. représentent un très haut niveau de pertinence et c'est d'ailleurs la raison pour laquelle Google essaie de lancer son +1.
Au plaisir de te lire, ici ou ailleurs,
Gaëtan - @lynkky
Merci pour cette fine analyse Aymeric 🙂 A mon avis tu n'es pas le seul à ressentir cette sensation de pagaille et cette impression de débordement, tout simplement parce que nous sommes nous même aussi des utilisateurs 🙂 et trop c'est trop, même pour nous. N'oublions jamais, s'il vous plaît, qu'il y a une vie en dehors d'internet, et que c'est à nous de faire en sorte que l'internaute ai envie de rester et de revenir sur la toile 😉
Pour ce qui est des Digg Like orientés 100% SEO (les petits frères des CP) je préfère le terme de Quick Link (je ne me souviens plus lequel d'entre eux revendique ce terme) cela évite les ambiguïtés.
Et puis est-ce de notre faute si Google indexe en 3 minutes la page page d'un blog WordPress à peine dézippé ? Car il est bien là l'intérêt des ces Diggs, alors si le lien passe en nofollow dans 6 mois, est-ce vraiment bien grave ?
Pour les CP, c'est plus compliqué. Déjà, le fait de laisser la possibilité le voir la liste des articles postés par XXX ou YYY (ou tout simplement afficher leur pseudo dans chaque article) c'est comme agiter un chiffon rouge de le taureau Google. C'est comme supprimer la possibilité de commenter les articles, ça fait pas très naturel. Alors pas étonnant si le site se fait flinguer un jour, et comme pour les annuaires, les meilleurs survivrons et là, les comptes auteurs sur cela vaudront de l'or !
Enfin, pour conclure je dirais qu'utiliser des CP,Digg et autres n’empêche pas d'élever ses blog thématiques : il vaut mieux un petit chez soi qu'un grand chez les autres 😉
Très bon article, seulement je pense pas que l'argument de landing page soit soit réel. Il faut vraiment, vraiment avoir un site tout jeune pour se faire dépasser par un article de CP.
Personnellement, et même si ce n'est pas la méthode la plus rentable, j'essaie de rédiger mes CP à la fois pour les moteurs de recherche et pour d'éventuels lecteurs. Parfois, notamment quand le sujet traité répond à une forte demande, ça paie, et ça peut créer de bons signaux pour Google (recommandations dans les réseaux sociaux ou meilleurs statistiques de navigation). Si à l'avenir Google intervient pour donner moins de poids aux communiqués de presse, ces signaux me semblent être le seul moyen pour lui d'attribuer une valeur à un contenu.
Je me lance encore une fois en retard, avec de nouveaux sites d'articles et je me rends compte que de nombreux webmasters et/ou référenceurs se dépêchent de s'inscrire et de te demander un compte auteur a peine ton site sortit, ce qui a tendance a me faire dire que c'est une bonne technique de référencement actuellement. Pour revenir a ton article, j'ai déjà eu le cas de la page du CP qui se place devant ton site et qui se référence sur Google en moins de 3 heures quand toi tu galère des semaines, véridique !
Une autre chose avant de partir, c'est une des premières fois ou je lis l'article ET les commentaires en entier 🙂
Excellent article, je pense qu'il faut voir le tout... Personnellement, je fait de tout (maillage interne, rédaction fiches produits, digg, cp) mais "un peu tous les jours" et pour les CPs et articles de digg, il faut réellement les rédiger pour que ça soit intéressant je pense, certains se retrouvent quand même dans google actualités...
ET +1 pour google alertes !!
C'est aux utilisateurs du CP d'être intelligents pour ne pas plomber le site. Les annuaires, c'est aussi les utilisateurs qui saccagent le boulot de l'annuairiste.
Le CPiste doit trouver le moyen de ne pas mettre son site sous le radar de GG : articles en sans lien, inclure des vidéos, avoir des commentaires, articles populaires avec une résonance dans les réseaux sociaux...
J'aime bien la structure de l'article : les CP et les digg-like, c'est louche, pas dis que ça marche tout le temps mais le spam, ça fonctionne ! ^^
Je pense qu'on est tous d'accord pour dire que les CP ont été le truc le plus utilisé cette année et comme tout système qui devient trop utilisé, on ne sait pas combien de temps encore cela sera efficace. J'aime bien l'idée du maillage interne (je dois retravailler le mien) et l'idée de blogs satellites. Mais au final, on en revient au même problème, car pour alimenter ces blogs satellites en liens, on fait comment à part du CP, du digg-like ou des annuaires ? ^^
Un petit coup de beaume pour faire passer tout ça, plus sérieusement pour le moment cela fonctionne tout de même assez bien.
J'use et j'abuse de ces plateformes et mes sites portent plûtot pas mal .. a suivre
Toujours aussi bien tes articles .. je reviendrais plus souvent ici lire ton blog
mais la principale question c'est :
linké les CP via twitter ou facebook a il réellement un effet SEO ?
est ce que google est vraiment un robot ou alors il y a un peu les humains qui agissent manuellement ?
que je sache les links sont en nofollow, ou alors google considere les links en provenance de twitter ou facebook comme ''importants'' même si ils sont en nofollow ?
un peu comme avec wikipedia où il parait que google les prend en compte même si c'est du nofollow
c'est possible qu'ils aient intégrés manuellement dans l'algorithme les gros sites comme fb, twitter ou wikipedia pour donner un poids supérieurs aux liens même si c'est du nofollow non ?
en gros est ce qu'un nofollow sur wikipedia aura le même poids qu'un nofollow sur un blog PR0
@ Slimature
Ce n'est pas mon article, mais celui d'Aymeric comme indiqué 🙂
Je vais quand même te répondre pour ce qui est de mon humble avis sur le sujet.
- Linker un cp via tweeter lui donne l'occasion d'être indéxé très vite.
- plusieurs sites reprennent les tweets et mettent les liens en dofollow, c'est toujours ça de gagné.
- un lien nofollow de wikipédia apporte sans doute de l'autorité, même s'il ne transmet pas de jus. Par dessus tout, il amène souvent des visites.
Bonjour,
je suis d'accord avec Pierre, les CP doivent être faits avant tout pour être lus par les humains.
De toute façon c'est la tendance du SEO, les réseaux sociaux et les tendances.
Le but va être de faire en sorte qu'on vous aime.
Bonjour Aymeric,
Belle réflexion, bien explorée.
mais
Et si les articles publiés dans le CP étaient de vraies promotions pour les sites qu'ils linkent ? plutôt que des bouillies indigestes prétextes à 3 liens.
Si l'effort de rédaction allait jusque là, on ne craindrait pas qu'ils passent éventuellement devant le site principal dans les SERP (oui cela arrive, sur le marché québécois)...
de même à l'inverse on ne craindrait pas des taux de rebonds affolants, la perte du visiteur plus le dénigrement de glouglou.
Je suis un fada du contenu structuré qui pointent gentiment sur le site visé mais aussi vers les autres CP de sa link wheel. Mes CP perso sont très sélectifs en qualité, donc peu spammés (...peu d'auteurs aussi! ...)
L'idée? s'accroche au principe de vrai qualité qu'on me renvoie souvent au nez lorsque je flush un contributeur.
Merci Aymeric pour cette agréable lecture. Je pense que t'as mis le doigt sur une contradiction qui sommeille en nous referenceurs depuis qq temps au sujet du sacro saint paradoxe contenu propre/contenu sale du SEO, et même si je crois plus au beau web car les enjeux sont trop importants, j'aime lire ces signaux d'alerte qui démontrent que certains finissent par acquérir une éthique! (la plus longue phrase de ma vie dit!)
Pour ma part, je commence à utiliser des sites de CPs thématisés. Difficile à trouver encore, mais pas impossible. J'utilise aussi mes propres sites avec, comme indiqué dans cet article, 4/5 articles sans lien pour 1 avec.
Pelos cherche tjrs sa famille oui ^^ Ce n'est pas faute de le diffuser mais je crois qu'il est bien là où il est.... (pas crier B@x ;))
Tout à fait d'accord sur l'importance en amont de réaliser un bon maillage interne avant de se lancer tête baissée sur des CPs ou autres stratégies de netlinking...autant accueillir ses liens dans un bon environnement on-site
Hé bien, si tu avais su à l'époque où tu as écrit cet article tout ce qui allait se passer !
Je pense que tu peux te reconvertir dans la voyance au cas où... 🙂
Bref pour ma part mon site n'a pas été trop touché mais l'un de mon collègue oui, c'est hallucinant !
J'ai l'impression que tu confonds la cause et l'effet. Pourquoi les sites de cp ont-ils vu le jour ? A cause de Google, évidemment! Personne ne lis ces sites, personne ne lis ces "communiqués de presse", personne n'en avait besoin... sauf les junkies du lien!
Quelle stratégie adopter alors? Donner plus d'importances à des blogs satellites?
Je repasse sur cet article neuf mois après l'avoir lu une première fois, et le constat après ce temps est claire : Le lecteur est bien roi !
Rédiger des CP pour juste optimiser une ancre deviens pour moi inutile ...
C'est bien mieux d'aller écrire sur un blog spécialisé dans sa thématique et donc de toucher directement son public et en plus de faire une optimisation d'ancre qui aura beaucoup plus de poids que sur un CP (qui risque de tomber à tous moments)....