La mise à jour majeure de l'algorithme Google nommée Panda a fait pas mal de ménage, mais aussi de dégâts aux USA ( les dommages collatéraux existent forcément). Elle arrive prochainement en Europe.
Matt Cutts et Maile Ohye en ont dit plus lors du SMX West à San José.
Si comme moi, vous n'avez pas eu la chance d'y assister, leurs propos ont été publiés sur Searchengineland.
Je vous fais une dépêche à la volée, mais vous conseille tout de même l'article original (en anglais).
Bloquer le contenu de mauvaise qualité.
Je suis totalement d'accord avec le principe, et j'espère que Google arrivera un jour à limiter la présence de pages spammy dans son index. En revanche, quand je lis :
Transcription personnelle : Des pages à faible contenu (ex : création d'une rubrique encore peu alimentée dans un site, ou question sans réponse sur un site communautaire, etc.) DOIVENT être renseignées par une balise méta ou un robots.txt NOINDEX.
Le pire, c'est lorsque Matt et Maile ont précisé en amont qu'en cas de pénalité, ce n'était pas les pages individuelles qui seraient concernées, mais tout le site !
Des exceptions seraient faites sur les très gros sites....
Ma perception et réflexion à chaud :
- Google ne veut pas utiliser sa bande passante pour rien et nous oblige à faire en amont un travail de tri. Bah tient, c'est facile...
- Pour descendre certains concurrents (sites communautaires) , je pourrais aller spammer avec des centaines de pages contenant chacune une petite question formulée de telle manière que personne ne voudra y répondre.
- Si vous avez décidé de lancer un "petit site" vitrine. Assurez-vous de blinder vos pages de textes, dès le lancement, sinon, à la trappe alors que vous venez juste de naitre.
White Hat cloacking
Lorsque des clients ont un délire de site Full Flash (et oui, il y en a), une méthode de référencement consiste à reproduire l'intégralité du site en HTML. Il n'y à la aucune volonté de tromperie, le but est juste de fournir à Google un langage qu'il sait lire.
Et bien messieurs les amateurs de Flash, vous allez passer à la trappe si vous utilisez cette technique ! Matt est intraitable là-dessus. Selon Google, cloaking et whitehat sont des mots qui ne peuvent pas aller ensemble. En résumé, si le cloaking est détecté, votre site subira des pénalités.
À dire vrai, j'ai toujours déconseillé très fermement à nos clients de réaliser des sites en Flash pour des tas de raisons (SEO, accessibilité, etc.) mais je trouve fort de café de voir un site pénalisé pour la simple raison que Google n'a toujours pas réussi à se dépêtrer avec la technologie Flash.
En gros, le Flash pour les contenus est définitivement mort.
Linkbuilding
Rien de nouveau. Si vous voulez obtenir des liens, faites du contenu intéressant. Bien sûr, je suis entièrement d'accord. Mais lorsque cela sort de la bouche de Matt, je me demande toujours ce qu'il cache derrière les mots qu'il prononce.
Liens en provenance de communiqués de presse.
"Ces liens ne transmettent pas de pagerank, mais si un journaliste lit l'article et en fait un lui même, les liens inclus compteront".
Alors là, on est dans le "Google langage" parfait. Je n'ai rien compris.
Je vais donc extrapoler.
Si vous avez un lien dans une dépêche AFP, il ne transmet rien. Si un journaliste lit cette dépêche puis fait un article construit (oui, je sais, c'est rare, en général ils sont plutôt adeptes du copier/coller), et bien là, les liens compteront (s'il en fait, ce qui est rarissime en dehors des liens internes vers ses propres pages...).
À ce sujet, j'avais bien rigolé en voyant un tweet de DuplicateLeaks
Donc, que les éditeurs de sites de publication se rassurent, si leur contenu est unique et bien rédigé, il sera indexé, et les auteurs bénéficieront des liens déposés (ouf).
L'achat de liens
Rhôôô, ça fait 1000 fois que Matt vous dit que c'est pas bien.
Les mots clés dans le domaine.
Il semblerait (enfin) que Google réalise que les spammeurs utilisent cette particularité de l'algo. Ne vous inquiétez pas, il s'en occupe...
Le spam report et demande de ré-examen.
Un spam report a 4 fois plus de poids qu'un spam trouvé manuellement (?) car il provient d'un utilisateur qui cherchait réellement. Tiens, moi qui croyais que les spam report ne venaient que des concurrents 🙂
Google va tenter d'être plus clair dans les messages qui annoncent une violation des guidelines.
Pour les demandes de réexamen, si la pénalité est algorithmique, ça ne sert à rien, il faut juste corriger et attendre un nouveau crawl. Si la pénalité a été infligée manuellement, elle peut être levée manuellement en moins d'une semaine (c'est vrai, je l'ai vécu).
What else ?
D'autres sujets sont abordés, je vous laisse creuser par vous-mêmes.
En attendant
Et bien en attendant que le panda débarque dans nos contrées, il ne nous reste qu'à espérer de ne pas faire partie des dommages collatéraux. Matt dit lui même que les changements de l'algo ne sont pas parfaits.
Et vous, ça vous fait peur les pandas ?
Liens connexes :
edit 2014 : les dates de passage de Google Panda.
http://actu.abondance.com/2011/03/google-panda-plus-dinfos-et-arrivee-en.html
Même pas peur!!!
Les pandas sont des bêtes adorables.
Je vais créer une tonne de pages parlant de ces magnifiques animaux.
Le panda ne dort pas, il médite!
Les pandas sont beaux.
Les pandas sont sympathiques.
Je vais taper des images de pandas sur toutes les pages de mon site.
Ça ira pour Matt???
Il est plutôt sympa ce Panda, en fait, cela ressemble plus à une campagne de Relation Publique ! et Google va punir quelques sites de façon aléatoire pour l'exemple...
J'ai comme le sentiment que ce nouvel algo fait plutôt sourire les pros du SEO, qui s'en amusent beaucoup ! N'est-ce-pas Sylvain 😉
Suite à "l'algo" PANDA, il se pendit... Hum...
Désolé pas résisté... 🙂
Je vois plein de failles et de fails la dedans.
Pour le contenu du flash, je ne suis pas d'accord avec toi. Aujourd'hui il est trop simple de mettre du texte débile sous un code flash+html et bien ranker. Cette technique bateau doit être bannie.
Par contre, avec swf object, tu peux juste externaliser le js et le tour est joué...
Pour le reste les règles sont loin d'être précises. En amont, il n'est même pas expliqué ce qu'est un "texte de qualité", si c'est juste ne pas faire un duplicate, ça me semble facile à détourner.
Wait & See mais je souhaite bonnes chances aux responsables qualités de Google qui vont avoir du boulot de suppression manuelle (même si officiellement ils ne peuvent pas le faire)
Bonne synthèse Sylvain.
Par contre je ne crois absolument pas à une action contre les mots-clés dans les domaines et à une pénalité sur les liens dans les CPs (au pire il y aura une pénalité comme sur une grosse partie des annuaires).
Le Panda est un animal exigeant et qui fait du dégât quand il se met en colère...
Il faut refouler le panda qui est en nous !!!
Plus sérieusement, cette modification de l'algorithme est majeure et va dans le sens d'un meilleur contrôle de l'Internet. C'est une bonne chose, mais cela met en évidence les lacunes réelles de Google dans l'automatisation du contrôle des contenus et sa vulnérabilité au spam.
Leur seule opportunité est de punir, même s'il y aura énormément de dégâts collatéraux.
Ca va saigner !!!!
Tout le point concernant les communiqués de presse me sidère, tout comme la partie sur la pénalité appliquée à l'intégralité d'un site quand un portion a un faible intérêt, ou encore sur le cloaking des sites en flash.
Si cela s'avère réel (ce dont je doute en partie tellement c'est gros), pas mal de sites risquent de tomber purement et simplement dans les oubliettes.
Il n'y a pas à dire : Matt Cutts nous vend du rêve ^^
C'est clair qu'avec l'ensemble de ces nouveautés, ça va tailler sec !
Alors pour les sites de daubes, ça va nous faire du bien mais ceux réellement de qualité qui vont morfler, il vont faire quoi ces pantins ?
Et puis à quoi ça rime de ne pas indexer un site tant qu'il n'a pas suffisamment de contenus ? Quel est le minimum requis ?
Comme tu l'as indiqué, Google n'est pas capable de corriger son incompétence alors il sanctionne. Tout simplement lamentable.
Bref, nous n'avons pas fini de nous triturer les méninges.
Il faut retenir une seule chose : ne dites jamais non au panda http://www.youtube.com/watch?v=X21mJh6j9i4.
Sinon :
- pénalité appliquer a tout le domaine => abuse.
- l'achat de liens c'est pas bien ? Il a oublier de dire, c'est pas bien sauf si vous le faites sur adwords 😉
- Pour les mots clés dans le domaine je connais (je peux dire nous connaissons) une agence web qui doit commencer à suer du front.
- Les communiques de presse il faudra leur donner un autre nom, et puis il suffira de se faire passer pour un journaliste ça sera comique (sans-ms).
- White Hat Cloacking : parce qu'il y a un white hat cloacking ? => no comment
- What else? : Nespresso ?
Le point sur le Flash est super important !
Combien de site sur lesquels j'ai bossé avaient du flash. Et dans lesquels nous avons créé du contenu alternatif en HTML ou dans un swf object... Tous les grands sites de marques risquent d'être impacté par cela non ?
Cette Panda Update devrait faire mal à certains qui devront peut-être compter sur leur capitale pour se sauver de cette impasse. Cependant, comme toujours, ce sera profitable à ceux qui saurons s'adapter. Certains vont perdre en visibilité, donc d'autres vont inexorablement en gagner. Donc, faisons de la qualité et nous serons remerciés. Ceux qui ont eux l'info ne devraient pas avoir à s'inquiéter s'ils savent réagir.
Petit j'avais une peluche panda que je vénérais. Plus grand j'ai adopté un panda roux en guise de navigateur. Non vraiment les pandas sont gentils. Jusqu'ici tout va bien, jusqu'ici tout va bien...
Un ton toujours aussi plaisant qui enrobe bien la lecture.
Réflexions :
L'est quand même gonflé le MC de demander de se dém... pour trouver les pages problématiques alors même que ces derniers temps, gg a envoyé un gros coup de pompe à tous ceux mettant en place des mécanismes de "requéttage", Positeo pour ne citer que celui-ci en savant quelque chose.
C'est le tsunami qui suit le tdt?
Euh, les mots clé dans la syntaxe des pseudos, tu restes preneur Syvain, malgré la chasse bientôt ouverte? 😉
Qu'en sera t'il aussi de ceux qui te mettront en signature des noms de domaine du même acabit? 😎
Ca va faire du grabuge tout çà. Je trouve que le principe du communiqué de presse très bien dans son ensemble. C'est du contenu unique (ou quasi, entendons-nous bien)... Alors pourquoi diable s'acharner contre une machine à contenu de qualité ?
Après, pour les NDD, cela evitera j'espere le parking et la vente à des prix exorbitant des domaines clés.
Il va encore y avoir du ménage. Si on pratique le référencement avec bon sens, cela devrait passer. Par contre, j'ai du coup vraiment l'impression que les nouveaux sites qui arriveront sur la toile, devront être d'entré performant. C'est dur pour un petit blog qui vient juste de ce lancer, et qui n'a pas encore beaucoup de contenu dans ces rubriques. M'enfin !
Juste pour parler du ciblage des contenus de "mauvaise" qualité, la tâche est trop compliquée pour un moteur. Il doit regarder d'autres paramètres qui n'ont rien à voir avec le contenu en lui-même. Il s'agit de tous les signaux communs aux fermes de contenu, mais pour s'attaquer à hiérarchiser le contenu en termes de qualité, bonjour le challenge.
C'est sans compter qu'on doit bien remettre en question de quoi il s'agit lorsqu'on jauge la qualité du contenu.
En l'état, c'est plutôt de ne pas voir et revoir la même soupe de mots qui est déjà présente dans l'index - pas grand chose de plus à l'horizon.
Les algos de Google peuvent être compliqués et avancés sur certains plans, mais c'est encore préhistorique par rapport à la sémantique, donc juger de la valeur d'une publication n'est pas possible. Encore une fois, les signaux sont surtout ailleurs. Cela montre les limitations (et les possibilités d'exploitation).
Bon article à lire sur WRI http://www.webrankinfo.com/dossiers/techniques/detection-fermes-contenu
Rien de nouveau sous le soleil de Google et bien entendu la langue de bois de Matt est toujours d'actualité. Seul truc c'est vrai qu'entre les penalités et la mise a jour Panda, ils ont foutu les jetons a tout le monde ici GG. Tous mes clients me demande si on doit vraiment faire de la soumission annuaire comme partie du link building (parce qu'il faut payer les annuaires vous comprenez). Ah la la la la la...
C'est clair Google que s'oriente sur le nettoyage manuel de son index avec le lien systématiquement affiché en bas de page "Envoyez-nous vos commentaires" qui mène sur "J'ai vécu une mauvaise expérience avec un site trouvé sur Google" ...
Les sites qui n'apportent aucune information de qualité seront relégués au fond de l'abime...
Par ailleurs, je me demande si les blogs qui n'ont pas mis les liens de commentaires en nofollow ne seront pas pénalisés.
"Presse Citron" par exemple avait perdu son sitelink il y a quelques jours et est passé de PR7 à PR 5... Depuis quelques mois, il y a une recrudescence des spams sur les blogs de type Dotclear et les blogs de presse.
@Alain, nous verrons pour les liens en pied de page, j'ai bati mon référencement en partie avec cette méthode et on dit que ça fait longtemps que Google gère ce type de liens.
Pour les blogs en dofollow, ça n'a plus rapport, Google prend maintenant en compte les liens en nofollow!
Pour l'histoire du flash je suis d'accord, c'est pas normal d'utiliser du cloaking pour servir une version html aux moteurs. Il y a une technique autorisé, il faut l'utiliser.
Pour les mots clefs dans le domaine tu te trompes, c'est pas du spam comme tu semble penser, c'est du SEO.
Merci pour ces précisions 🙂 Au sujet du bonne grosse m.a.j de l'algo à lire l'article ça semble plutôt cohérent. Du moment qu'il n'y est pas trop de dommages collatéraux bien sûr 😉
@ Phil
Disons que pour le moment, je suis un peu comme tout le monde, je tremble dans mes chaussettes même si j'ai l'esprit tranquille. Je ne voudrais pas que mes clients ou mes sites passent à la trappe pour d'obscures raisons.
@ Vincent
Difficile de définir un contenu de qualité en effet.
Mais dans cet article :
http://www.webrankinfo.com/dossiers/redaction/fermes-contenus
j'ai trouvé très instructive la réponse d'Isabelle Canivet à la question : comment Google peut-il detecter les pages de mauvaises qualité ?
Pour le Flash, j'avoue que de toute façon, nous ne mettrons jamais rien d'autres que des animations sur les sites, jamais de réel contenu que nous ferons toujours en dur. Mais comme tu dis, des parades existent... pour le moment.
@ Aurélien
Il parait que certains sites de CP se sont pris de belles gamelles aux US. Reste à savoir ce qu'il publiaient (DC ?)
Pour les mots clés dans les domaines, cela pourrait juste être un coefficient de pondération moindre qu'à l'heure actuelle. Qu'en penses tu ?
@ Sebastien, Daniel, Hervé.
Ouais, je serai plus tranquille (si je m'en sort), une fois le "tsunami" Panda passé.
@ RDD
Excellent cette pub !
Oui, je vois de quelle agence tu parles. C'est une stratégie SEO complète qu'ils vont devoir retravailler.
@ Ivanoff
Je pense que les sites de grandes marques de luxe devraient subsister grâce à leur BL. Et de toute façon, ils sont en général mal référencés, à part sur leur nom.
@ franco
Je t'avoue que secrêtement, j'espère bien gagner des positions 🙂
@ Jean-Baptiste
Oui, jusqu'ici... 🙂
@ Arnaud
Si on ne me dézingue que du PR, je m'en fout. il n'impacte pas le positionnement. Pour les domaines liés, je fais tout de même attention. Et puis sur le fond, je pense que si le reste tient la route, quelques écarts ne sont pas gênants.
D'ailleurs, depuis le premier jour, je m'attache à ce que ce blog ne tire pas tout son trafic de Google. Celui-ci ne représente plus qu'un tiers aujourd'hui.
@ Laurent
je suis d'accord sur le fait que les signaux sur la qualité du contenu sont aussi externes au site... Et sur les limites d'un algo sur ce thème précis.
@ Julien (juge inside)
Est-ce que certains de tes clients US ont pris des tôles ?
@ Alain
Je suis moi aussi passé de PR6 à 5 sur ce blog, sans aucun impact sur le trafic qui évolue toujours (même pas peur 🙂 )
@ Robin
Que Google suive les liens nofollow, c'est évident, il explore tout. En revanche, jamais personne n'a démontrée la moindre trace d'aide au ranking.
Exepté peut-être pour les liens dans les tweet qui donnerai une sorte de caution.
On serre les fesses, et on continue à bosser proprement... Qui vivra verra.
Je reste quand même perplexe à l'idée qu'un algo puisse maîtriser la linguistique aussi bien qu'un cerveau...
En revanche, quand on sait combien GG peut être abjecte et ne pas daigner donner d'explications à ses clients qui dépensent des milliers d'euros en Adwords... je n'ai aucun doute sur le fait qu'il va y avoir de grosses, grosses difficultés pour beaucoup...
Ah ils aiment ca, faire flipper tout ce petit monde de la toile!
Il n'y a que pour les nouveaux site avec peu de contenu que ca craint mais peut etre que cette fois l'ancienneté sera un facteur dépréciant le site.
Peu de contenu + age avancé = à la trappe ??
M'enfin (comme dirais l'homme au pull over vert) il ne nous reste qu'a attendre...
Wilfried
@RDD sympa la pub, ; je me suis éclaté a la mater
merci pour le fou rire
Amitiés
Wilfried
Je regrette mais si mon site tablettepc est considéré comme spammy je ne comprends plus rien, c'est un site jeune mais y a rien de spammy, j'espère que le bonus exact match ne sera pas trop dévalué, je pense que ce sont plutôt des noms de domaine à rallonge qui doivent être pénalisés, de toute façon les NDD de plus de 3 mots clé ne bénéficient pas de bonus exact match.
Merci également RDD pour les pubs Never say no to Panda, vraiment hilarantes.
D'ailleurs elles sont désactivées sur demande en lecture directe depuis fb et Twitter.
C'est clair que la remise en cause côté marketing est déjà active!
la page contact n'a pas beaucoup de contenu, juste quelques champs... aie ça craint...
et puis, j'ai aussi la page 404, y'en a encore moins, zut, le site complet va être blacklisté... comme tous les autres sites de la planète du coup...
donc, GG n'aura plus aucun site dans son index et GG disparaîtra...
hello,
"En gros, le Flash pour les contenus est définitivement mort."
pour le cloaking flash il y a sûrement danger, par contre je ne vois aucune contre-indication ni danger à la mise en place de contenu alternatif via swf object tant que le contenu est le même que celui proposé dans le swf.
@ Christian
Bonne reflexion, je n'y avais pas pensé.
@ Fran6
Lorsque l'on voit des tas de sites comporter TOUT le contenu alternatif du site dans un même fichier, je ne peux que sourire en terme d'efficacité SEO, non ?
Rien ne remplacera le fait d'avoir une page spécifique dédiée à chaque expression-clé.
Maintenant, lorsque l'on souhaite se positionner sur une expression concurrentielle et 2 ou 3 connexes faciles, je suis d'accord, c'est jouable.
Je reste vigilant, car il est vrai que j'ai écrit une quantité importante de texte insipide dans le but de faire des liens.
@Fran et Sylvain
Pas certain...
Trop de monde crache sur FLASH, je ne comprends pas bien pourquoi...
Le contenu peut être facilement repris de façon dynamique, publié en xml sur le site, sans effort récupéré pour des pages (x)html via php xpath... Trié pour des documents de toute sorte...
Donc le contenu peut très bien exister aussi en FLASH.
Ok, ça demande de connaître plus qu'un peu AS3 et d'autres langages mais n'est-ce pas le boulot d'un développeur de savoir faire ça?
Pour ma part je ne pense pas que ça puisse faire du tort aux sites en FLASH dès le moment où ils sont bien conçus.
Ça évitera peut-être aussi les prétendus codeurs flash qui font leur boulot à moitié et qui font du tort au métier autant qu'à ADOBE.
@ Sylvain, tout à fait, il n'empêche qu'il existe des solutions techniques tout à fait valables pour indexer plusieurs pages tout comme un site html basique, en particulier le duo swf object et swf adress, on peut citer l'exemple de Cartier même si il n'ont pas fait trop d'efforts pour présenter un contenu alternatif adapté.
Le petit ourson de chine arrive à grands galops... planquons nous !
Décidément, les grands esprits se rencontrent... 🙂
http://blog.ramenos.net/referencement/compte-rendu-en-francais-du-smx-west-mars-2011-les-10-points-google-a-retenir/
J'ai mis un article en ligne fort similaire au tien et en faisant ma veille depuis quelques minutes, je viens de découvrir que toi aussi, tu as fait un petit compte-rendu sur le SMX.
Pour calmer le panda j'ai fais une grosse réserve de bambou.
Comme tout ce travail m'a fatigué je suis venu me détendre en lisant un article et j'ai bien rigolé ^^^
Quoi de neuf sous le soleil?
Pas grand chose....
mais comme prudence est mère de sûreté restons en alerte!
ah et j'aime bien l'image qui illustre l'article.
Il reste à prier pour que les blogs dont le contenu est de qualité ne soient pas pénalisés à tort.
Quid des sites en flash....Je rappelle que deezer est construit en swf object......me semble t-il....Il sera intéressant de suivre sa dégringolade.. Que dire des grandes marques qui utilisent cette méthode ? Pensez vous que le PR accumulé et la notoriété de ces sites vont les aider ?
Pour les spam report, je me demande comment Google les examine, bien que non concurrent mais simple utilisateur de Google qui n'aime pas lors d'une recherche tomber sur du contenu qui n'a rien ou peu a voir avec elle.
J'ai dernièrement envoyé deux spam report sur une requête très tendance avec ce qui se passe en Lybie, le site se plaçait premier sur cette requête, en à peine 12 heures les résultats ont disparu de Google, 2 semaines plus tard, il sont de retour sur d'autres requêtes et très très bien placés. Que ce soit sur le .fr ou .com de Google ils arrivent à se placer, je me demande donc ce qu'ils font chez Google ?
Un "sous titre" en avec 4-5 mots clés avec toujours le même paragraphe de max 30 mots reprenant quelques mots clés de la balise et enfin une balise bidon formée de mots clés, une vidéo de chez Youtube 5-6 lignes et voilà et le site n'a qu'un PR3.
Cherchons "mort johnny hallyday 2011" ...
@ Fran6 et Nicolas
J'abdique 🙂
... partiellement
Je conviens qu'il existe des techniques permettant d'indexer du Flash, Google a même communiqué sur le fait qu'il lisait maintenant mieux le flash, et même l'ajax...
Mais je suis quelqu'un d'assez terre à terre.
Combien de fois un site en flash m'a t-il résisté pour que je lui passe devant sur Google ? JAMAIS
Combien ai-je vu de sites en flash correctement positionnés sur une dizaine de requêtes un peu concurrentielles ? AUCUN
Les seules fois ou j'ai pu rencontrer des difficultés, c'était lorsque ces sites en flash étaient positionnés sur le nom de leur propre marque. Mais dans ce cas, de toute façon, le même problème se pose en HTML. GG donne du poids au nom de domaine et favorise le positionnement des marques sur leur nom. Flash ou pas, la règle est la même.
Je crois aussi qu'il ne faut pas oublier le pouvoir du SEO Offpage. De très bons backlinks en quantité suffisante peuvent permettre de positionner un peu n'importe quoi, probablement même des pages quasi vides.
Maintenant, je n'ai jamais prétendu détenir la vérité. Ce sont juste des constats à l'heure ou j'écris. Comme je sais bien que des tas de règles peuvent changer du jour au lendemain, je reste toujours très humble et prêt à remettre en question mes constats.
Si quelqu'un peut me trouver un site Flash qui soit dans les 6 premiers sur 10 requêtes un peu concurrentielles, cela m'intéresse. Je serai très curieux de voir quelles méthodes ont été employées.
Bon, nous avons un peu débordé du sujet initial 🙂
Mon idée de départ était de dire que je trouve plutôt injuste de pénaliser un site en flash pour du cloaking qui reste le moyen le plus simple et le moins couteux pour le positionner. Surtout s'il n'y a strictement aucune volonté de tromper l'internaute.
Je ne pense pas Sylvain, mais on verra. 🙂
[QUOTE]Mais je suis quelqu’un d’assez terre à terre.
Combien de fois un site en flash m’a t-il résisté pour que je lui passe devant sur Google ? JAMAIS[/QUOTE]
- Did you do that?
- Shocking my dear!
C'est vrai qu'on ne se bat pas avec le même fleuret!
Puis bon, c'est clair qu'en général on ne "mousquetonne" pas dans la même cour...
Les grosses marques qui font de l'évènementiel...
Noooooo, I will not give you any company name!!!
Are you insane in your SEO's head?...
Elles ont leur site en "pure HTML STRICT" et se tapent pas mal vu leur "mailing list" de se retrouver en première page pour un produit de luxe dont le contenu flash ne restera de toute façon présent que le temps de quelques mois au plus.
Mais bon, vu que tu abdiques partiellement, tu es partiellement pardonné.
N’empêche mon site "perso" n'est pas en flash, même si je compte le refaire en parallèle.
Y'a pas la méthode de travail est différente et c'est long de chez long pour faire ça "bien comme il faut".
Bon, tout ça pour dire que j'abdique partiellement aussi sur le coup... Mais remplacer flash par des plugins machin bidule brol je trouve ça ridicule aussi.
Téléchargez tel player pour, tel autre pour et ce sans garantie aucune, sans parler du javascript qui est tout sauf de l'OO mais du prototyping NOOOO!
Alors que l'on déconseillait l'utilisation du javascript et du contenu flash (pas neuf le discours) il y a quelques mois encore, avec HTML5 (qui est à l'état embryonnaire) on nage dans l'excès inverse
On revient à l'époque du web d'avant le web là.
Javascript et plugins additionnels de toute part, non mais ça va pas la tête?
Me font rigoler les discours...
Bon, je me tais maintenant, promis! Pardon Monsieur, c'est Stevie qui a commencé!
Petit complément concernant les sites de CP's, j'ai eu au téléphone hier le responsable de Text Links Ads qui m'a assurer que la majeur partie des sites dit de CP se sont vues flinguer purement et simplement leur trafic...
Moi j'ai surtout peur pour les sites généraliste qui n'agisse que par dépêche, ainsi que pour mon www --> :p
Allez, il semblerait quand même que la MAJ est été en partie réservé aux USA...Be cool GG
Merci de cet éclairage. Je pense que si on est relativement "clean" dans son seo, et qu'on fournit du contenu de qualité, il n'y a pas de raison d'être vraiment impacté négativement. les black hat ont quand même du soucis à se faire, surtout s'ils travaillent avec des clients sur des domaines hyperconcurrentiels. Comme tu le dis, derrière les discours, on peut pas non plus voir tous ce qui sera fait concrètement, et il y aura toujours une part d'ombre....
Bon, ça m’inquiète un peu le coup des communiqués. Si même faire du propre ne sert à rien, on va faire encore plus dégueulasse.
Pour l'instant, je n'ai pas constaté de changement pour la prise en compte des communiqués, mais ce sera à surveiller.
Au passage, quels sont les gros sites de CPs au Etats-Unis ?
Je crois qu'on est pas à l'abri de toute possibilité même si on n'est pas en tort. Je rejoins entièrement ton opinion sur le sujet, Matt Cutts se contredit dans ses propres propos. Sa lutte en vaut la peine mais à quel prix pour ceux qui veulent lancer leur site ou pour les forums ayant des topics sans réponse??? Bref on va voir ce que ça donne en espérant qu'ils fassent le ménage mais proprement !
ah j'ai jamais vu non plus un site flash qui ranke bien sur de nombreuses requêtes, il n'y a pourtant sur le papier aucune raison qu'un site flash bien pensé ranke moins bien qu'un site html : le contenu bdd chargé dans les swf peut aussi bien être injecté dans le contenu alternatif html et google ne voit aucune différence par rapport à un 100% html (indépendamment du travail de linking externe).
D'après les discussions que j'ai pu lire et avoir sur divers blogs et forums je vois différentes raisons à cet état de fait :
- la méconnaissance du média flash et de ses possibilités chez de nombreux devs et référenceurs (et sûrement aussi chez les chefs de projet) : les arguments se résument souvent à "flash pour le seo=caca" une pensée fortement ancrée dans les esprits, à cela s'ajoutent de nombreux fausses vérités comme (entre autres) les sites flash sont trop lourds, pas ergonomiques, c'est oublier que flash n'est qu'un outil, les défauts d'ergonomie et de gestion du poids ne viennent que de la mauvaise utilisation de cet outil. Après les reproches en ce qui concerne le format propriétaire et les défauts d'accessibilité restent difficiles à démonter
- un autre gros argument est le coût (en temps et en hommes) engendré par le choix de cette technique, il faut dans l'équipe de prod des profils de graphiste flash, de dev flash et javascript relativement pointus et le temps de production peut être assez extensible vu le caractère un peu "exploratoire" de ces techniques
- Je suis graphiste flash de formation et de premier métier et de ce que j'en ai vu les graphistes et dev flash sont très peu sensibilisés aux problématiques SEO et ne sont donc pas à même de proposer des solutions adaptés, mes expériences dans différentes agences web m'ont également montré que dans le montage d'un projet dès qu'on pense site flash on pense site vitrine et seo vraiment basique
bref j'aimerais vraiment voir des projets ambitieux dans ce domaine, je ne peux malheureusement pas m'y coller par manque de compétences et de temps mais je suis vraiment étonné qu'aucune grosse boîte web ne s'y soit attelée sérieusement.
Sinon je reviens sur les avancées de google sur la lecture "directe" des swfs, c'est à mon avis encore beaucoup trop incontrôlable et aléatoire pour être sérieusement mis à profit, les techniques de contenu alternatif restent de mise.
Ceci étant dit promis j'arrête de déborder ^^
@ Fran6
Avec une explication aussi pertinente, les débordements sont excusés. Il y a sans doute beaucoup de vrai dans tes arguments. Merci pour t'être donné la peine de les étayer aussi bien.
Il y a beaucoup de points intéressants mais aussi discutables.
Point de vue flash, la démarche me choque pas mal. C'est quand même ultra anti-accesibilité de vouloir gicler les alternatives Html. Personnellement, je ne développe pas en Flash, mais j'imagine que cela va pousser les flasheurs à s'intéresser encore plus au Html5. Petit coup marketing derrière tout ca ?
Pour les CP, moi je comprends que les liens venant du site de CP ne seront pas pris en compte. Mais que si un journaliste réécrit l'article ou le publie avec des liens dans le contenu, ceux-ci seront pris en compte. Va falloir que je sympathise avec des journalistes 😀
Mais alors, le coup du Noindex sur les pages à faible contenu me sidère.
Je suis d'accord qu'il est fatiguant de voir dans les résultats pleins de liens sans réponses ou de mauvaises qualités, mais c'est passer d'une extrême à une autre. En particulier sur le fait de pénaliser tout le site...
Hormis en installant un script de détection de pages sans réponses générant l'attribut noindex, je vois pas comment tu peux faire le tri de ces dizaines de milliers de pages par site, et les reindexer ensuite.
Bon le spam report ne mérite aucun commentaire tellement le concept est nase et dangereux. On a vu ce que ca donne la délation...
Mouais, les "grandes réformes de l'algo", on en voit tous les six mois, et je me demande toujours si ce n'est pas avant tout un effet d'annonce.
Après caféine, voici le panda. Toujours un nom court et facile à retenir, afin qu'on en parle beaucoup. Mais l'effet est-il si important ? Je suis toujours assez sceptique...
Je suis le gérant du site et je fais moi même tout ce qui touche au SEO, donc les commentaires ci dessus semblent passionnant, mais je trouve que sur un plan économique, Google a trop de poids, cela devient malsain, il faudrait que les autres moteurs montent au même niveau qualitatif et que Goole perde une partie de son hégémonie. 90% de part de marché, c'est un monopole!
Il est clair qu'on va tout droit vers l'esclavage, d'une certaine manière Google nous tiens réellement par les C*** et ça me casse quelque peu les C***.
Il va falloir s'adapter et quoi d'autre...
Merci pour ces précisions en tout cas.
La blague ! Plutôt décevant de voir une telle sanction pour les communiqué de presse, sachant en effet que les journaliste on autre chose à faire que de citer les sources et des liens externes. Plutôt énorme le tweet de @duplicateleaks, je n'avais pas vu !
Bonjour Sylvain,
Ah j'ai du mal à penser qu'une révolution Google se prépare. Matt Cutts tente de sensibiliser par la peur et visiblement il réussit pas trop mal.
Google ne peut pas soigner sa vitrine sans se préoccuper des sites Web qui composent son classement.
Un évolution oui, une révolution non !
amicalement
Panda va etre un tournant à bien négocier, je donnerai mon opinion en fonction de mes sanctions ou pas.
Bientôt, le référencement ne consistera qu'à enlever les pénalités à ce rythme-là. Le premier sera le seul site qui ne sera pas pénalisé.
Ce bon vieux Matt... quand je débutais en SEO, je regardais ses vidéos religieusement en pensant qu'il était le messie pour les référenceurs, alors que c'est tout le contraire ! Matt is Evil, il prêche uniquement pour sa paroisse.
Concernant Panda, si il a le même impact en France qu'aux Etats-Unis, on n'a pas fini d'entendre pleurer sur les forums SEO... Au vu des informations fournies par google, tout le monde est susceptible de subir des modifications dans ses classements, c'est le moment de serrer les doigts et de croiser les fesses.
Google se débrouille plutôt bien avec Flash. Encore faut-il comprendre comment Google fonctionne, ce que ceux qui produisent des sites en Flash n'ont que rarement réussi à comprendre.
Le principal souci d'un site Flash ne vient pas tant que le site est en Flash, car Google le lit désormais (depuis 2009 ?), sous certaines conditions (il ne fait aucun effort d'OCR sur les textes intégrés aux images, par exemple, mais comprend bien les diverses fontes employées pour écrire du texte). Il arrive même à cliquer dans Flash pour en extraire de nouveaux contenus. Enfin, en théorie, du moins. Je n'ai pas testé ce détail.
En revanche, là où le problème se pose, c'est que la plupart des sites en Flash sont fait à base d'une unique URL pour tout le site, à savoir que si le site a 10 ou 1.000 pages, il faudra toujours passer par la page d'accueil, sans possibilité de passer à la page accessible par les menus internes du site. Or, Google a besoin d'une URL par contenu. Si le site ne respecte pas cet impératif, il n'a que peu de chances d'apparaître dans les résultats de recherche. Ceci dit, il n'y a pas que Google qui en a besoin : tout le monde en a besoin ! Il est facile de copier-coller une URL pour ensuite cliquer dessus, beaucoup moins évident de copier-coller l'URL + 1 page d'explications pour atteindre le contenu recherché, quelle que soit la technologie employée pour cela (y compris quelqu'un qui est dans le dos du surfeur qui lui explique où cliquer).
Ceci dit, oui, Flash, c'est vraiment pas la bonne idée pour être premier sur des termes concurrentiels.
Moi aussi, je suis assez sceptique sur le nouveau PANDA de Google. L'intention de vouloir pénaliser les petits malins, est bonne mais la façon et les moyens sont assez discutables.
Et bien et bien, j'espère que les petits sites qui se lancent verront un jour le jour.
Ça risque de les pénalisés et de voir de vieux sites qui sont moins pertinent d'avoir de meilleurs positions.
Pour ce qui est de flash, il a été à l'origine beaucoup utilisé car il n'y avait pas de problème pour les résolutions d'écran etc, et les capacités d'animations étaient vraiment excellente. Malheureusement il a été utiliser énormément et raison ou à tord.
Je suis webdesigner et j'ai toujours déconseillé les sites en full flash pour la raison du cloacking. Je vois des sites en flash qui pourraient être fait en javascript.
À notre époque, avec le CSS3, HTML5, javascript, on peut aisément se passer de flash.
Une découverte cocasse sur le panda : 😉
"Des pages à faible contenu (ex : création d’une rubrique encore peu alimentée dans un site, ou question sans réponse sur un site communautaire, etc.) DOIVENT être renseignées par une balise méta ou un robots.txt NOINDEX." :
merci pour l'info car j'ai tendance à procéder de la sorte... mettre en ligne quelque chose d'un peu vide puis compléter... J'en prends note.
En tout cas, j'espère que Bing (ou un autre, mais qui ?) va rapidement se positionner comme une alternative crédible à Google. La concurrence manque vraiment actuellement.
Moi à ce que je comprend c'est que les sites de communiqués de presse et leurs liens n'auront plus aucune valeur... Sûrement parce que google sait qu'ils sont utilisés par les SEO.
En tout cas ça m'inquiète un peu, j'ai l'impression que Panda n'est pas au point et qu'il va avoir beaucoup de site pénalisé qui ne l'auront pas mérité.
Ben, j'avais pas vraiment peur jusqu'à ce que je lise cet article...surtout quand je lis "Des pages à faible contenu (ex : création d’une rubrique encore peu alimentée dans un site, ou question sans réponse sur un site communautaire, etc.) DOIVENT être renseignées par une balise méta ou un robots.txt NOINDEX." J'ai pas encore lu l'article original, mais là ça fiche les miquettes. J'ai quand même du mal à y croire, le nombre de sites potentiellement touchés est vraiment trop grand.
Cette mise à jour risque de faire très mal pour les nouveaux sites.
Avec peu de contenu, ils risquent d’être pénalisés très tôt, et la fréquence de crawl sera tout de suite diminuée. Le lancement risque d’être difficile !
Le plus incroyable est le fait de devoir désindexer les pages que l’on juge peu intéressantes. Une page peut contenir des infographies et de la vidéo qui représentent une information de qualité mais le moteur n’y verra que très peu de contenu !
Ben Google Panda, c'est quand même plus mignon que l'ancienne version Google Caféine, non ?
J'ai hâte que Panda arrive, qu'on sache enfin ce qu'il en est ! Les dommages collatéraux potentiels me font un peu peur, mais bon, on verra bien. Les deux choses que je retiens de Panda c'est :
1) Avoir du contenu unique et des articles étoffés. (Avec du contenu multimédia, c'est mieux)
2) Ne pas tomber dans un rapport nombre de pubs / nombre de mots bizarrement élevé. Donc de manière générale de pas trop bourriner et surtout penser à mettre un no index sur les pages de catégories entre autre. Pour ceux qui utilisent wordpress & All in One SEO il y a juste une case à cocher 🙂
Les vraies fermes de contenus savent qu'elles sont quasi foutues d'avance mais si on ne veut pas être un des oeufs qui a servi à faire l'omelette il suffit je pense de blinder son site en page au contenu unique et dégager le reste.
@Sylvain : Tu sais si un site tombe sous l'effet Panda (Sans être une ferme de contenu à proprement parlé), est-ce qu'en corrigeant ce qui ne va pas on a une chance de retrouver nos places dans les SERPs au prochain crawl ?
@ Nico
J'imagine que oui, mais je suis aussi dans l'expectative.
Okay ! Let's wait and see.
Les sites de communiqués ont encore quelques beaux jours devant si les contenus sont uniques. Si panda attaque les sites de communiqué de presse (qui ont un contenu unique), les annuaires (avec contenu unique), les sites d'actu (avec contenu unique), il n'y aurait aucunes justifications.
C'est navrant que bcp croient que les sites de cp seront pénalisé si ceux là respectent les "consignes".
quand est ce qu'on peut attendre les premières secousses de ces évolutions ?
c'est immédiat ? ou ça va progresser avec le temps ?
est ce qu'il existe des reports de sites touchés ?
merci en tout cas pour l'info, je continue sur abondance …
Soon
Sebastien
Ce qui me "tue" c'est que certaines agences web ignorent tout de ces mises à jour. Au barcamp prestaShop, une agence a fièrement annoncé lancer un moteur de "site e-commerce" pour l'un de ses clients. Ainsi, les revendeurs de ce client pourront, en un clic, copié tout le catalogue produit de l'entreprise créant, ainsi, leur propre site de vente en ligne. Magique ! Résultat, une boutique toute remplie en dix secondes...
Et le DC dans tout ca ??
Certains vivent en dehors des réalités.
Est ce qu'on peut résumer les critères permettant d'éviter à 1 site d'être sanctionné à ces 4 points :
- le contenu proposé doit être unique.
- le contenu doit être important (mais sur ce point, comment mesure t'on l'importance : le nombre de liens ? de tweet ?... Quoi d'autre ?)
- les pages du site ne doivent pas noyer le contenu dans la pub
- le site doit présenter des liens externes et internes.
Le panda est doux, beau, mais il mord les méchants !
Le critere utilise est -comme vous avez bien cite dans l'article- la qualite du contenu.
Un article qui développe cette idée (pour les intéressés).
Bonne lecture.
Mouais...
Tu liras mon dernier billet pour comprendre mon point de vue qui est sensiblement différent du tien.
Après lecture de ton billet ou tous les autres, chacun s'égosille à décrire le contenu de mauvaise qualité. Sauf que c'est juste une notion intangible, voire même débile !
@Laurent
Je n'ai pas compris ton second commentaire.
D'ailleurs j'ai omis de décrire dans l'article ce que je considère comme un contenu de mauvaise qualité. Je passe sur les splogs...
L'exemple concret qui m'énerve au plus haut point sont les pages sur lesquelles une question est posée mais aucune réponse apportée.
Mais comment GG doit/peut il réagir ?
L'algo ne positionne une page que sur les termes de la question, forcément. La solution serait donc d'attendre que des réponses soient apportées puis jugées par des humains, le +1 ?
Bref, on est loin d'une solution algorithmique.
Comme toi, je me demande comment un algo peut juger de la qualité d'un contenu, même si les pistes données par Isabelle Canivet dans l'article de WRI sont intéressantes.
Google ne veut pas encourager le développement de site Full Flash parce qu'on ne peut y intégrer d'Adsense. Le jour où ce serait possible, il vous dira qu'il peut référencer les sites en Flash !
Et sinon, le sympathique animal arrive quand dans notre contrée ?
Parce que comme certains référenceurs ici, je pense plus à de l'effet d'annonce qu'autre chose... Mais je reste curieux 😉
Sur le fond, c'est très bien de faire le ménage.
Trop de site polluent les SERPs.
Il est tant de redonner aux internautes (que nous sommes) des résultats qualitatifs.
Sur la forme, y a beaucoup à redire.
Les mots dans les noms de domaine ?:
Que vont devenir les "camping-de-la-plage", "restaurant-la-fourchette", et "hotel-de la gare" ?
Les contenus de qualité :
Vont-ils sabrer les sites bourrés de fautes d'orthographe ? 😉
Plus sérieusement, à moins de placer de l'humain dans l'analyse des pages, comment juger de manière pertinente la qualité d'un article ?
Ce qui me mène à...
Les taux de rebond :
Il est prévu de plomber les pages (et par incidence les sites ?) à fort taux de rebond. Mais nous savons tous que certaines pages ont forcément un fort taux de rebond qui vient alourdir le taux global du site.
Une page d'horaire d'ouverture, par exemple...
Je suis tout à fait d'accord avec @Laurent. Il est difficile de juger de la qualité d'un contenu. Mais je crois qu'il s'agira de parler de pertinence, ce que Gooogle fait très bien quand il le veut. Quand il décide que ce n'est pas seulement la taille de son index qui compte, mais bien la valeur des informations stockées. Quand à la qualité du contenu, les filtres communs utilisés pour détecter les fermes de contenu sont arrivés à maturité.
S'y on y ajoute tous les autres critères concernant l'environnement du site (parce ce que ce n'est pas seulement le contenu qui est pris en compte) on arrive à un algo proche de perception de l'internaute lambda d'un site web. C'est en tout cas ce à quoi tend les différentes mise à jour.
Panda est en effet une vraie mise à jour par rapport à l'algorithme mis en place actuellement.
La méthode de référencement peut en changer complètement, surtout si on se rapport au point où ils expliquent que les communiqués de presse ne feront plus de liens alimentant le PageRank.
Cependant, si votre site n'a rien a se reprocher, il n'y aura pas de problèmes. C'est un bon point dans le sens où les fermes de contenu vont enfin être mises à mal.
Merci de ton article.
Le panda fait couler de l'ancre. 🙂
En tous les cas, si ça pénalise les sites blinder de Pubs, Popup, et autres...
ça sera déjà une bonne chose. Et aussi, si l’on trouve + facilement des réponses de qualités à nos recherches, ça fera gagner du temps. 🙂
Excellente analyse.
Moi j'ai hâte que cela arrive en France car en tant que créateur de contenu, je suis confiant. Google est du côté des visiteurs et c'est une bonne chose.
Une question néanmoins, la question des contenus dupliqués est-elle réglé ou pas? Comment Google va punir les copieurs s'il ne sait même pas qui est l'auteur original...
Merci de m'éclaircir sur ce point.
🙂
Moi je me pose une question, et les curriculum en ligne ? Ce sont des sites qui n'ont pas forcement beaucoup de contenu.. Donc, est-ce que Panda va les pénalisés ? Le web n'est-il pas un endroit où l'on peut laisser sa carte de visite qu'elle est du contenant ou pas ?
Merci bcp pour ces informations
En gros pour les cas simple pour que Gérard considère le site comme n'ayant que des pages de "qualité" faut mettre du no follow ou no index sur les catégories et les nuages de mots clés?
Merci d'éclairer ma lanterne ... 😉
@ Phil
Dans la théorie, il faut que les pages soient utiles aux visiteurs...
Les pages de catégories et les nuages de mots peuvent répondre à des attentes visiteurs, maintenant, ce qu'en pensera google...
exemple : sur la requête "test seo" la page de catégorie de ce blog est en première position sur GG, qu'en sera t-il après Panda, on verra...
Son arrivée en France semble date du début avril.
->