Google : vers un algorithme sans backlinks ?

Linking

Depuis tout petit (le jour de sa naissance), Google prend en compte les liens faits vers les sites comme critère de classement (c'est le principe du Pagerank). C'est probablement l'une des couches les plus basses de son algorithme et donc une des plus difficiles à modifier.

Mais ce levier étant assez facile à manipuler, le moteur n'a cessé de mettre en place des filtres et de mener des actions humaines pour protéger son index. Alors pourrait-il un jour se passer totalement des backlinks ?

Classer des pages sans tenir compte des liens, c'est possible

C'est le moteur de recherche Russe Yandex qui a ouvert le feu en 2014. La suppression de la prise en compte des liens n'a pas été appliquée sur tout son index, mais avant tout sur les thématiques qu'il jugeait les plus manipulées ou spammy : immobilier, voyages, vêtements et accessoires, équipement de la maison, santé et beauté, services de loi, … et SEO 🙂
Il a ensuite élargi en intégrant la finance, l'assurance, l'auto, etc.

En gros, ce sont avant tout les requêtes commerciales qui ont été touchées. Le but, renforcer la qualité des résultats en éradiquant les techniques de manipulation des liens. Il est sûr que nos amis russes ne sont pas les derniers dans le sport du linking de sauvage. Pour Yandex, supprimer le facteur des liens entrants n'a donc pas révélé de baisse de qualité de l'index, au contraire.

Sur quoi Yandex se base-t-il aujourd'hui ?

Le contenu unique, les signaux sociaux, la géolocalisation, le nombre de pages sur un sujet, les liens internes, les mises à jour fréquentes, la fréquence des mots-clés dans le contenu (trop c'est mal), le temps passé sur le site par l'utilisateur, les pages de mauvaise qualité, etc.  À vrai dire toutes ces pistes cumulées sont viables.

Comment ferait Google ?

Il est évident que tous ces leviers que je viens de citer pour Yandex sont probablement déjà en action dans l'algo de Google. Ils sont sans doute pondérés en fonction du type de requête.

Une piste est d'ailleurs déjà largement développée pour Google qui dans bon nombre de cas se passe déjà des liens entrants. Avec le knowledge Graph, Google affiche directement la réponse à l'utilisateur en prenant en compte des sources fiables factuellement, par exemple pour afficher la taille de Lolo Ferrari.

Un article paru dans la revue Newscientist a jeté un pavé dans la mare SEO en stipulant que Google souhaiterait classer les sites en fonction de la confiance qu'il peut accorder aux faits qui y sont exposés. La fiabilité de ces faits serait fondée sur une base (Knowledge Vault).

Selon ce procédé, en disant ici que la bataille de Marignan a eu lieu en 1516, je grille cet article, car ce fait est inexact. Je décrédibilise mon contenu aux yeux de Google avec cette information erronée.
Mais en disant que le premier anniversaire de la bataille de Marignan a eu lieu en 1516, je peux sans doute rattraper le coup, si la notion d'anniversaire est incluse dans l'algo. Bref, pas simple on le voit avec ce petit exemple basique. Et puis allez vérifier la véracité des faits sur une fiche produit de site e-commerce... Il est donc clair que ce filtre supplémentaire ne peut pas être utilisé pour tout.

En résumé, selon le principe, lorsqu'une page voit les faits décrits avérés, elle gagne des points, quand ces faits sont faux, elle en perd.

Un algo spécial mobile ?

L'autre bombe lâchée par Gary Illes récemment au SMX de San José, est qu'une équipe Google travaillerait actuellement sur un index distinct de celui actuellement en place, et ceci spécifiquement pour servir les résultats de recherche sur mobile !

Là, au delà de favoriser les sites compatibles (comme Google l'a annoncé pour le 21 avril 2015), il se pourrait bien que les BL soient moins (ou pas ?) pris en compte car pour le moment, les applis ont peu de BL en regard des sites. Elles seraient donc injustement défavorisées.

Je disais précédemment qu'il n'y avait pas urgence à passer au mobile pour tout le monde, mais pour ceux qui ont un business BtoC, un site mobile devient indispensable.

Quels changements pour le SEO tel que nous le connaissons ?

Si vous lisez ce blog depuis un moment, vous comprendrez que je ne vois pas là un virage à 180 degrés. Google se bat contre le spamindexing depuis des lustres.

Contre le linking hardcore : Pingouin est le plus fidèle allié de Google sur cet aspect.

Contre les contenus de mauvaise qualité : Le filtre Panda en est le meilleur exemple, et je pense que cette nouvelle couche validant la véracité des faits viendra surtout compléter cette analyse du contenu.

Pour conclure

Je ne sais pas si Google est prêt à se passer des BL. Il y a 1 an, Matt Cutts nous disait que l'expérience avait été tentée en interne, mais que les résultats étaient pires qu'en prenant le linking en compte.

Il est donc probable que la prise en compte de la véracité des faits soit une couche de plus, et à force d'empiler les couches et les paramètres pris en compte, on finit forcément par donner moins de poids à ceux qui existaient précédemment. En ce sens, les liens auront donc effectivement moins d'impact sur le classement dans certains cas.

Un nouvel index spécifique pour le mobile pourrait changer la donne, à suivre...

Et n'oublions pas non plus que Google a des dizaines de moyens de pister les comportements des utilisateurs. Ce sujet fait moins de bruit et je doute voir Google communiquer clairement dessus dans la mesure ou son côté Big Brother inquiète déjà suffisamment. En revanche, cela reste un moyen idéal d'avoir une véritable armée pour valider la qualité d'une page.

Conclusion : Évitez d'écrire des conneries, l'utilisateur n'aime pas de toute façon ! Et puis tant que l'on y est n'oublions pas que les liens c'est aussi... fait pour les internautes. Et enfin, si votre cible est composée de particuliers (voir de certains pros) pensez mobile !

Google : vers un algorithme sans backlinks ?
4.88 (97.65%) 17 votes

Partager sur Facebook
Partager sur Twitter Plein
Partager sur linkedin
Partager sur Google+

30 réflexions au sujet de « Google : vers un algorithme sans backlinks ? »

  1. Laurent

    hello

    Je n'ai qu'une seule pensée par rapport à cet article, déjà parce que je n'ai pas encore pris de café, ensuite parce que je me disais depuis longtemps : "okay, Google veut que pour une page donnée, on réponde aux questions d'un internaute sur un sujet très précis".

    Et bien la réponse parle d'elle-même : créer du contenu qui corresponde à ce qu'on a appris à l'école : introduction, développements autour de "pistes" (qu'on peut appeler sous-sujets, spécialisations du sujet), conclusion. Le but ? couvrir tout ce qui correspond au sujet. Sur une page ou plusieurs ? Cela dépend de la stratégie, mais si vous l'avez .

    Et évidemment, pour que Google comprenne mieux, il va falloir maîtriser les micro-données, appelée aussi structuration du contenu, par exemple SCHEMA.ORG, qui permet de catégoriser ce qu'on écrit. Oui, Google apprécie qu'on fasse son travail de classification. Et on n'est pas payé ! Damn it !

  2. Laurent

    Damn it !
    J'ai oublié un truc (et c'est après le café) :

    Comme Google cherche à répondre aux questions des internautes, évidemment il faut qu'il y ait un consensus sur les réponses, charge à Google de faire travailler son algorithme pour faire ressortir les bonnes réponses.
    => ça donne du grain à moudre pour les black hat qui se créeront de bonnes réponses 🙂 soit sur des sujets existants, soit -plus exitant- sur de futurs sujets.

    Et donc, la question importante est : étant donné qu'il faut un consensus autour de contenu qui font autorité comme étant LA réponse à UNE question :
    - comment va-t-on surnager et gagner les meilleures places dans les SERP ?
    - comment se détacher ?
    - pourquoi Google devrait envoyer l'internaute sur mon site si on lui fournit les réponses ?

    Bref, selon moi, ce n'est PAS satisfaisant. Le risque est grand de ne plus être visible parce qu'on répond au besoin de Google, et non de l'internaute.

  3. Sylvain Auteur de l’article

    @ Laurent
    Tu touches là un point critique pour les propriétaires de sites.
    Google l'a dit, son moteur est construit pour ses utilisateurs, pas pour (montrer) des sites. Plus de détail ici : http://googlepolicyeurope.blogspot.fr/2014/09/we-built-google-for-users-not-websites.html

    En gros, à moins que ce ne soit en achetant de l'adwords, présenter ton site dans ses résultats n'est pas sa préoccupation première. S'il peut afficher une réponse directe sur la base de faits validés, comme une date de naissance, un programme de cinéma, la météo sur une ville, il le fait.

    Ensuite, en pratique...

    La logique de produire des contenus qui répondent aux questions de l'internaute reste indispensable. Tout simplement parce que dans le cas contraire, l'internaute ne viendra pas ou ne restera pas sur le site.

    Je crois aussi que certaines réponses sont trop complexes pour que Google puisse afficher quelque chose de valable dans le knowledge graph, ce ne serait pas assez complet et l'internaute ne serait pas satisfait. Dans ce cas Google n'a pas le choix, il doit renvoyer ce dernier vers des sites qui développent la réponse.

    Après, il existe peut-être des solutions en attisant la curiosité légendaire de l'humain.
    Imagine une requête « âge de Claire Chazal » Google donne directement la réponse.
    Un SEO qui afficherait juste dessous une page dont le title est « Pourquoi Claire Chazal ne fait pas son âge » a toutes les chances de récupérer une part du trafic, même si l'internaute à déjà eu sa réponse.
    Donc pour répondre à ta question, c'est en imaginant le comportement de l'internaute et les questions qu'il peut se poser après avoir eu sa réponse initiale que l'on peut tirer son épingle du jeu. Pour cela, il faut bien analyser la SERP pour chaque requête et faire de même sur la nature humaine...

    Bref, pour revenir à ta question de base.

    Je ne suis pas certain qu'il soit dans notre intérêt d'apporter trop d'information à Google. Notamment en terme d'entités nommées, car à la longue on scie la branche sur laquelle on assoit notre visibilité.

    Et pour recoller au sujet de l'article.

    Minimiser le poids des backlinks et utiliser la véracité des faits sur une page semblerait avant tout un moyen de classer un peu autrement les résultats. Mais comme tu le fais ressortir, c'est aussi un risque de voir Google se passer des sites dans ses résultats.

    On pourrait même imaginer un jour ou l'intégralité de la surface de la première page de résultat soit uniquement un contenu Google pompé sur des dizaines de sites d'autorité et agrégé. En bas de cette page, quelques liens du genre « en savoir plus » qui pointeraient vers quelques sites.
    Reste à savoir comment Gogle gérerait les notions de droits d'auteur.

  4. Mathieu

    MERCI !!!
    Enfin quelqu'un qui n'annonce pas que "les liens c'est fini" !
    Pour être précis à propos de la KBT (Knowledge-Based Trust), il faut lire le papier de la cornell university qui a mis le feu au poudre et poussé même les plus grands SEO de la planéte à une exégèse idiote.
    Dans l'article, il y est bien précisé dans la note en page 1:

    We use the term “web source” to denote a specific webpage, such as wiki.com/page1, or a whole website, such as wiki.com.

    http://arxiv.org/pdf/1502.03519v1.pdf

    Mon intuition, vu le manque d'universalité de la KBT comparée au PR (que sont les faits dans une poésie ? dans un discours politique ? ou même en mathématiques ?) est que ça va surtout servir à évaluer le "trust", sans doute au niveau du domaine pour qu'on n'aie pas de "scarsity problem", et que ça agira pour rendre inutile le spam d'edu.

  5. jessyseonoob

    Salut Sylvain,

    Intéressant sujet que le knowledge graph, les facts et l'index mobile.

    Je me demande tout d'abord quelle va être la portée des Facts, d'ailleurs comment peut-il déterminer qu'un fait est vrai ou faux ? statistiquement ? (vois-tu mon regard vers le côté sombre ?), recoupement d'infos ? google a à sa disposition wikipedia dont ils pompe bien le contenu, mais aussi freebase qu'il a racheté, est-ce qu'on parle des résultats qui apparaissent quand on demande qui sont les membres d'iron maiden ? avec le gros bloc en haut,

    http://www.google.com/search?q=membres+du+groupe+iron+maiden

    qui peut nous répondre de qui est la femme de Bruce Dickinson

    http://www.google.com/search?q=membres+du+groupe+iron+maiden

    (il n'avait pas calculé ça mais avoir un nom de groupe qui est "vierge de fer" et avoir "dick" dans son nom = queue)

    On sent qu'on va nous la mettre sur les entités nommé et le google graph que l'on alimente pour avoir ses faveurs.

    D'ailleurs si je dis qu'Adrian Smith est un des guitaristes talentueux d'iron maiden et qu'il est l’architecte du plus grand gratte-ciel au monde google y verrait-il une différence ni même un anachronisme vu que c'est un contemporain ?

    http://www.lejdd.fr/Economie/Actualite/La-hauteur-exacte-de-la-Kingdom-Tower-est-secrete-623530

    Je pourrais même dire que son grand père Adam Smith a inventé le principe de l'autonomie de l'économie de marché et sa "main invisible".

    Bref, on a toujours de la marge 😉

    Concernant le nouvel index mobile, je me demande s'il est vraiment nouveau ou s'il est en place depuis un moment, parcque depuis que j'ai un téléphone android, je m'aperçois que certains résultats me sont très bien localisées, et un autre constat que j'avais fait au moment où il y a eu une grosse discussion sur "faut-il faire une version spécifique mobile ou une version responsive", je pense que les versions spécifiques mobiles, par exemple modifié via user-agent renvoyait des résultats différents (théme complétement différent sur une démo magento que j'avais).

    Sur la version "adaptative" le layout peut être complétement différent et les infos présentée différemment peuvent avoir une influence sur son ref mobile (je compte sur toi pour un test 😉 ) , sur la version responsive, on a la même structure on ne voit pas de différence notable.

    J'ai l'impression qu'un référencement juste par "fait avéré" va être compliqué, récemment la mort de martin bouygues montre qu'il peut mettre en avant des faits qui sont faux, donc quid de l'authorank ? est-ce vraiement la mort des backlink ? Il va prendre en compte les signaux sociaux et prendrait le risque d'être faké par des utilisateurs achetés qui lui sont incontrôlable ?

    je termine par une auto promo, google a annoncé qu'a partir du 24 avril il faut que les sites soient optimisés mobile, j'ai fait un article pour passer le validateur en ajoutant 2 lignes dans l'en-tête de page.

  6. Sylvain Auteur de l’article

    @ Mathieu
    Je te rejoins, c'est surtout (je crois) un moyen de valider un peu plus l'autorité d'une page à partir du moment ou certains faits mentionnés peuvent être considérés comme acquis et prouvés.

    Aparté : il y a longtemps que je ne crois plus au spam de .edu
    Sur un profil ou des pages pourries, je pense même que c'est devenu un signal négatif.
    En revanche, dans une publication commentée, là ça doit peser lourd.

    @ Jessy
    Je pense qu'il n'est pas si difficile que ça pour Google de constituer un faisceau d'indices qui permette de valider un fait. Le site de la Nasa ne dira jamais que Neil Armstrong était un grand cuisinier français. Quand 90% de pages indiquent la même chose, la probabilité que ce soit valide est plutôt forte. On peut donc en plus donner plus d'autorité à certaines sources en fonction du sujet traité.
    Et puis quand le fait n'est pas avéré, c'est-à-dire qu'un trop grand pourcentage de pages donne des infos discordantes, et bien il lui suffit de ne pas prendre le fait en compte.

    Ton exemple de Martin Bouygues est excellent. Il y a aujourd'hui plus de pages de démenti que de pages qui présentent l'événement. Dans ce cas, l'algo verra immanquablement un loup et ne prendra pas le fait en compte.

    En résumé, je pense que si Google utilise vraiment cette notion, c'est plutôt un indicateur fiable. Mais cela ne pourra jamais être intégré pour toutes les requêtes comme tu le fais bien remarqué, c'est juste une couche, un filtre, supplémentaire.

    Pour le mobile, tu as complètement raison concernant la géolocalisation. J'en fais souvent l'expérience, car je désactive toujours ce mouchard sur mon téléphone (sauf quand j'utilise le GPS ou un truc du genre). Et quand je l'active, je vois bien des résultats très différents, notamment pour des requêtes qui elles-mêmes impliquent une notion de lieu.

  7. Christian Méline

    Le soucis, est que la base de faits dont on peut affirmer qu'il y a un consensus est minuscule à l'échelle de ce dont on aurait besoin (=>? DC)...

  8. William Troillard

    Merci ! Pour moi de grosses évolutions sont à venir en SEO. Déjà on voit le poids qu'a pris les signaux sociaux. Les backlinks font la force de Google depuis son lancement, mais le web a tellement évolué ces 10 dernières années. Aujourd'hui le mobile, demain les objets connectés... Les sommes dépensées chaque jour dans la lutte anti-spam exige que des nouveaux modèles de référencement émergent chez Google.

  9. Nicolas Robineau

    Un sujet intéressant. Entre l'attaque de Google sur le mobile et leur volonté de se passer des spammeurs pour parfaire leur algo, je trouve cette année 2015 pleine de rebondissements et je trouve que cette année va dans le bon sens.

    Faire appel à la logique, à l'intelligence plutôt qu'industrialiser des process déjà connus et usés, c'est plus stimulant au quotidien.

    En espérant toujours que cela va faire peur à certains confrères, pour réduire encore plus le cercle des professionnels et peut-être le rendre un peu plus clean encore.

  10. Alexandre Santoni

    Depuis toujours, Google cherche a multiplier e nombre de facteurs pris en compte et de les équilibrer en terme de coefficient. Il suit cette logique. De là à complètement évacuer les backlinks, on peut à mon avis encore bien attendre. Je doute que Google en est aujourd'hui la ressource en terme de puissance algorithmique à grande échelle.

    Maintenant, ce qui est clair c'est que l'histoire nous montre qu'on se dirige doucement vers des tentatives chez Google.

  11. Christophe Maggi

    Hello,

    En parlant du Knowledge Graph, est-ce que quelqu'un a déjà vu des résultats autres que ceux émanant de Wikipédia sortir ?
    Quelles sont les sources d'alimentation des différents Knowledge Graph de Google, Qwant ou Bing ? A part Wikipédia, je ne vois jamais rien d'autre sortir.

  12. Clément

    En fait cet algorithme existe déjà... c'est celui utilisé sur Google Actualité, le poids des BL pour classer les info est faible voir inexistant d'autres critères sont utilisés pour classer les pages, SEO interne, spécialisation sur la thématique, volume de contenus etc....

    Depuis un certain temps d'ailleurs le robot d'exploration c'est Googlebot et plus Googlebot-news, ce qui veut bien dire que la lecture et l'analyse d'une page est partagée de la même manière à la base sur GGactulités et sur l'index classique.

    On peut rajouter l'intégration récente dans la oneboxe de sites non inclus dans GGActualité, ce qui ressemble fortement à un test de la part de Google de mettre une dose no-link dans les résultats de son index.

    Evidement l'algorithme de Google Actualités est difficilement transposable dans l'index de manière générale mais ce que l'on peut voir c'est que Google est parfaitement capable de faire un algorithme sans prendre en compte les BLs

  13. Guillaume

    Comme d'habitude avec les multiples annonces Google, on va commencer par être sceptique 🙂

    Ensuite, si l'idée semble plaisante sur le papier : mieux ranker les sites qui disent des "choses vraies", on peut vraisemblablement penser que ça va vite dégénérer... Sauf si le signal qui en découle est si ténu que personne n'ira chercher à le modifier.

    Imaginez, on est SEO, on fait en sorte de modifier le comportement du moteur, de l'induire en erreur pour qu'il modifie ces classements. Aujourd'hui, c'est en faisant du contenu optimisé et du lien. Si demain c'est en faisant du contenu qui est avéré véritable, on va alors avoir des contenus qui seront ultra formatés (j'imagine déjà les parenthèses partout : "l'actrice (née à Versailles le 6 Juin 2014) a remis hier le césar (du nom de César, l'artiste plasticien, le césar est une compression de couleur or ) du meilleur film à Justin Bridou (né le 12 Mai 1900 en Russie)". Le degré de précision deviendra ridiculement trop élevé (pour gagner des points), et déjà que l'ironie et les figures de styles étaient interdites en SEO, alors on aura maintenant l'interdit de l'à peu près ("elle est née il y a une dizaine d'années", deviendra toujours "elle est née le 3 mars 2005).

    Au delà de ce problème qui est fondamental, (mais dont le moteur se moque certainement : après tout, il a déjà eu largement l'occasion de capter l'ensemble des connaissances publiées sur le web avant aujourd'hui : si le contenu web devient vraiment pourri, il aura alors légitimité à fournir directement, lui même, des réponses au lieu de pointer vers des sites) car il amènera à une uniformisation encore plus forte des contenus et à une lecture bien peu agréable, on peut parier qu'un tel algo est difficile à mettre en oeuvre de façon systématique (quel sens lui donner. réellement..), sauf à vouloir détecter des sources de trusts - donc plutôt au niveau d'un site complet - (mais si on a déjà les infos dans une base de faits, d'autres peuvent déjà les avoir récupérées de la même façon et se faire ainsi passer pour une source de trust... houlala la prise de tête).

    Si tout ceci se trouvait confirmé, je pense que tous les seo finirons par ajouter à leur boite à outils un knowledge graph pour travailler 😉

    Ou alors peut-être qu'on se prend la tête à imaginer des choses étonnantes et incroyables alors qu'en fait ce sera seulement un filtre gorafi et cie ? :p

  14. Sylvain Auteur de l’article

    @ Tous
    Je ne vais pas répondre individuellement à tous mais je voulais vous dire que je trouve vos commentaires plus intéressants que mon article (qui a quand même le mérite de les avoir initié^^). Vous apportez des connaissances et des réflexions super intéressantes !

    @ Christophe
    Je crois savoir que l'essentiel du KG vient effectivement de Wikipedia et de Freebase.

  15. Guillaume

    D'ailleurs Freebase va fermer ses portes dans les prochains mois. Il devrait y avoir un reversement de certaines données dans wikipedia.
    Dans tous les cas, sachez qu'il y a un dump de freebase qui est téléchargeable 😉 (de wikipedia aussi, mais les données ne sont pas structurées de la même façon)

  16. Olivier Duffez

    Salut Sylvain, peux-tu expliquer ce passage ?

    Là, au delà de favoriser les sites compatibles (comme Google l'a annoncé pour le 21 avril 2015), il se pourrait bien que les BL soient moins (ou pas ?) pris en compte car pour le moment, les applis ont peu de BL en regard des sites. Elles seraient donc injustement défavorisées.

    L'index mobile n'est-il pas constitué des pages web que le robot mobile a pu obtenir ?
    Certes, complété par le mécanisme d'indexation des applis, encore embryonnaire actuellement.

  17. Sylvain Auteur de l’article

    @ Olivier
    Zut, j'ai du m'expliquer comme un manche^^
    Aujourd'hui, quand je fais une recherche sur mobile, j'ai pas mal de sites non compatibles dans les résultats. Ceci peut gêner mon expérience utilisateur (c'est souvent le cas). Dans son annonce, Google dit que les sites compatibles bénéficieront d'une prime au classement à partir du 21 avril.
    A ce jour le robot "mobile" indexe des tas de sites non compatibles. Se sera peut-être différent un jour...
    En tout cas, les non mobile friendly risquent de perdre des places.

    Après, je reviens sur le thème de l'article "un classement dans la SERP sans tenir compte des backlinks" (comme le fait Yandex dans certains cas). Je me disais que pour le mobile, une raison de plus existe de le faire, c'est que les applis ont souvent peu de BL, et surtout pas de BL internes. Il est donc difficile de les mettre en concurrence avec les pages web classiques. Dans le cas ou on supprime l'impact des liens sur mobile, on lisse cet effet qui désavantage les applis.

    Suis-je plus clair ?

  18. Olivier Duffez

    Gary Illyes a parlé de l'idée d'avoir un index dédié mobile. Tu penses que ça veut dire quoi ? Car tu parles des applis, mais pour moi un index mobile c'est un index de pages web, avec en priorité celles compatibles mobiles et en second les autres.
    A te lire, on a l'impression que l'index mobile est l'index des applis

  19. Sylvain Auteur de l’article

    @ Olivier
    Je parlais juste du fait de ne pas désavantager les applis, mais pas de les privilégier.
    Je pense comme toi qu'un index mobile favorisera les pages web compatibles, et relèguera les autres au second plan lors d'une recherche sur mobile.
    Je dis juste qu'en plus, cet index mobile pourrait prendre moins en compte les liens pour ne pas défavoriser les applis (car en général elles ne reçoivent pas de liens).

  20. Olivier Duffez

    Je ne sais pas pourquoi tu te demandes si les applis sont avantagées ou pas, car elles ne me semblent pas concernées.
    Mais laisse tomber, je n'arrive pas à comprendre, ça doit venir de moi.

  21. Sylvain Auteur de l’article

    @ Olivier
    Ok, je comprends mieux notre incompréhension mutuelle 🙂
    Pour moi, les applications sont particulièrement concernées.

    Lorsque l'on est sur mobile et que l'on recherche un site qui possède une appli dédiée, il me parait indispensable pour Google de proposer l'application dans les résultats.
    D'aIlleurs, pour certaines recherches, Google propose déjà un bouton permettant de télécharger l'appli directement depuis la SERP. Tape "instagram" ou "leboncoin" sur un iPad ou un iPhone pour tester (ça ne me le fait pas sur Android).

    Donc sur le nom du site, c'est sans doute déjà en place et va s’accélérer.
    Mais pour reprendre l'exemple de "leboncoin". Pourquoi Google ne proposerait-il pas l'appli sur la recherche "petites annonces" vu que Leboncoin est dans les résultats. Surtout que le site Leboncoin n'est pas compatible mobile, l'appli serait donc une réponse plus satisfaisante pour l'utilisateur.

    D’où une concurrence entre pages web et applications sur certaines requêtes. Et dans certains cas l'application est une réponse probablement plus adaptée à la recherche mobile. Mais l'appli n'ayant pas le bénéfice des liens, elle pourraient se voir déclasser même si elle est plus conforme aux attentes de l'utilisateur.

    Est-ce plus clair ?

  22. largow

    Faire bénéficier son appli du SEO de son site, ça s'appelle l'app indexing. C'est dispo depuis juin 2014 pour Android et devrait arriver d'ici moins de 6 mois pour iOS. L'app indexing permet de remonter des pages précises de l'appli qui sont le miroir des pages web responsive ou web mobile, via un mapping id app/url site, ce que l'on nomme le deep linking.
    Pour moi c'est LA révolution SEO de l'année 2015. À suivre 🙂

  23. Olivier Duffez

    Sylvain, je parlais de l'app indexing dès mon 1er commentaire 😉
    "Certes, complété par le mécanisme d'indexation des applis, encore embryonnaire actuellement."

    en fait Google se met à afficher dans les SERP des URL correspondant soit à des pages d'un site web, soit à des liens profonds d'une appli indexée.
    je crois que pour l'instant une appli ne peut pas sortir (même avec un lien profond) si elle n'est pas reliée à une page web, mais je peux me tromper ou ça pourrait changer.
    c'est pourquoi je trouve que pour l'instant, la notion de BL ne change pas tant que ça

  24. Sylvain Auteur de l’article

    @ Olivier
    OK, on va y arriver 🙂
    Dans mon article, sur ce sujet je ne fais que de la prospective (forcément).
    Mon idée est donc de dire que pour ne pas "défavoriser" les pages des applis, Google pourraient ne pas prendre en compte les liens vers les pages web non plus. Bref, tout le monde serait à égalité, applications et pages.

  25. Boris

    L'avenir du blackSEO : créer des faux wiki spécialisés avec des bots (faux profils) qui "crédibiliseront" les sites en les visitant, en cliquant sur les pages et en restant longtemps. On peut également décrédibilisé les sites concurrents en ne les visitant pas avec des bots (déjà été fait).
    Après pour ce qui est des liens, que le référencement passe par des liens en dur dans une page, ou simplement par la "citation" du client dans une page ça change pas grand chose pour les référenceurs, on change juste l'hameçon de notre canne à pêche pour pêcher les conversions.

  26. Jean

    Je ne pense pas que google se passera des backlink. Car le contenu ne suffit pas a juger de la notoriété d'un site.
    Je viens de lancez mon site -www.ministyl.com et je peux vous dire que si mon site était évalué sans les backlink et bien je n'irais pas loin je pense.

  27. Olivier Duffez

    La prospective est intéressante, tout comme les conseils sur des techniques qui marchent déjà.
    Si je résume, ton idée aura du sens le jour où une appli aura à se battre contre des pages web.
    Mais déjà, un résultat n'est plus forcément uniquement une page web, mais la combinaison d'une page web et d'un lien profond vers un endroit d'une appli. L'algo doit s'adapter à ça, et d'ailleurs on parle surtout de la compatibilité mobile (critère SEO), mais l'annonce de Google concerne aussi l'indexation des applis, qui boostent la visibilité (cf. http://www.webrankinfo.com/dossiers/google-mobile/compatibilite-mobile-critere-seo)

  28. Mitsu

    Quand je lis que google est esclave du lien et que c'est chiant parce que le lien est facilement manipulable je comprends.

    Quand je vois que Google cherche des solution grâce au signaux sociaux je me dis : fuite en avant ?

  29. Eminence - agence de référencement

    Entant que agence de référencement et selon les cas clients, nous devons être capable de travailler sur tous les moteurs de recherche. Chez Eminence à Genève, nous avons déjà travaillé avec Baidu ( chine) et Yandex mise à part bien sur Google. Certes travailler sur Yandex rend nos taches beaucoup plus facile car on est concentré majoritairement sur l'optimisation du contenu et le onpage.
    depuis quelques temps, Google accorde de plus en plus d'importance au le content marketing dans l'optique d'améliorer et de comprendre les contenus, de savoir qui l’écrit, quel message est retranscrit à travers se contenu. Ce n'est qu'a ce moment là, qu'on pourra accorder moins d’intérêt au backlinks.

Partagez sur :

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *