Ça faisait longtemps ! Alors voici un petit article pour redonner vie à ce blog. Et bien sûr, pour reparler de Google et de ses sales manies.
En l’occurrence le bla-bla sur l’intelligence artificielle qui me fait sourire quand on voit ce que Google affiche en sitelinks pour un site.
Cas concret
Vous avez que j’aime les exemples précis, les blogs ou l’ont parle de théorie dans le vide, c’est bien, mais bon…
J’ai un site sur les bijoux que j’avais un peu délaissé, je fais un petit check pour voir ce qu’il devient, et je tombe (aïe) sur ça :
Bon, globalement tous les siteslinks sont plutôt mauvais (les sitelinks ce sont ces liens que Google affiche sous le résultat principal). Franchement, quand je regarde mes stats, toutes les pages présentées correspondent aux moins visitées par les internautes. On comprend donc mal l’intérêt de les présenter, mais les voies de Google sont impénétrables.
Mais deux d’entre eux m’interpellent plus que les autres. Le sitelink vers la recherche, et celui vers la catégorie « non classé » des articles du blog.
Des pages totalement inutiles, sélectionnées par Google pour les internautes
Il n’y a jamais rien eu dans cette page d’articles non classés exceptés une fois un article laissé là quelques jours par erreur. La page est désespérément vide depuis toujours, c’est le néant total !
Mais alors pourquoi Google
- ) perd-il son temps à venir la crawler régulièrement ? (je croyais qu’il fallait économiser des ressources)
- ) Affiche-t-il une page vide aux internautes ?
La page de recherche, je n’en parle même pas. Soit Google le juge utile, et affiche directement le champ de recherche dans sa SERP comme il le fait parfois, soit il laisse tomber ce sitelink, ça me semble tellement évident !
Bon, je passe sur les autres liens complémentaires qu’il propose pour ce site, pas beaucoup plus utiles, mais bon…
Alors quand on me fait un bla-bla sur l’IA et autres balivernes de ce type, je me dis que certains trucs très basiques sont un peu mis de côté, et que ce manque de logique sur les basiques nuit même à l’internaute. Et bien évidemment Google a retiré l'option de la Search Console qui permettait de soustraire des pages à son choix de sitelinks.
Conclusion :
Basique, on vient de mettre des noindex sur ces deux pages, on verra quelle surprise Google nous réserve à la prochaine étape 🙂
Merci Sylvain pour ce retour d'autant plus qu'il m'inspire un défi d'envergure !
J'ai hésité, mais pas trop... ce genre de défi est redoutable 😉 !
Le défi est (une fois n'est pas coutume) de me faire l'avocate du diable en plaidant pour l'IA.
Non, pas pour défendre Google sur ce constat effectivement navrant quant à cet affichage "improbable" de sitelinks pour le site unvraibijou.com.
Mais je voudrais plaider pour les systèmes d'IA.
C'est vrai qu'ils ne sont pas absolus. N'oublions pas qu'ils sont algorithmés par des humains, eux-mêmes imparfaits.
C'est vrai aussi qu'ils sont capables d'auto-générer des biais : le machine learning requiert à la source des données "parfaites" pour ne pas amplifier/déformer des ambiguïtés.
Mais il me semble que le potentiel de ces systèmes d'IA ne mérite pas le terme "balivernes" !
Leurs potentiels sont immenses. Y compris (voire surtout) ceux de Google, dans bien des domaines.
Alors je plaide pour une "erreur de parcours, un biais sans doute dû à une inconséquence passagère dans une masse toujours croissante de crawls".
Par contre, ce qui ne me semble pas cool en effet, c'est la suppression par Google de l'option de retrait de sitelinks de la Search Console.
Bonne chance pour la suite !
@Françoise
Je parlais de balivernes pour ce cas de choix de sitelinks, car je sais d'expérience que je ne suis pas le seul dans ce cas. Bien entendu et heureusement je pense que Google fera mieux sur les voitures autonomes par exemple 🙂
@Sylvain, c'est pas faux, Google sait faire mieux !
Il est peut-être perturbé en ce moment par la mise au point par les chercheurs de Google Brain d'un logiciel AutoML-Zero. L'idée étant de laisser les algo évoluer de façon autonome, selon les processus d’évolution et de sélection naturelle… 😉 !
Ou alors, c'est le changement de présidence USA qui le perturbe 🙂
Salut Sylvain, et bravo pour la relance de cette pizza aux anch... de ce baume réf... de ce blog ! (combien de temps cette louable intention va t-elle tenir ?) Bon pour l'IA en question, resterait à faire une analyse des signaux : date de premier crawl des 2 pages, pondération avec l'existant (si GGbot est passé quand le site avait 10 pages en tout, on peut comprendre qu'il ait indexé ces 2 pages - rappelons-nous qu'à l'époque le crawl budget alloué était beaucoup plus généreux - et il n'est pas revenu sur son classement depuis), nombre de liens pointant vers les 2 pages incriminées, etc
Es-tu sûr que GGbot vient toujours crawler ces pages ? As-tu perdu des pages dans l'index GG au fil du temps ?
Bref, sans être avocat de l'IA à tout prix, je pense aussi que les vieux sites délaissés comme unvraibijou (2 articles de blog en 2019 à première vue) n'ont plus droit qu'à un crawl léthargique sans tout le cablage IA.
Ranime ce site pour de bon, et constate la différence 🙂
Bonnes fêtes de fin d'année, HD, sk8 et compagnie ^^
@Pascal
Enfin une explication rationnelle à la Google 🙂
@Omnireso
Google est repassé des milliers de fois sur toutes les pages. D'ailleurs ce blog fait pas mal de trafic, quelques articles ont de belles positions sur de belles requêtes. Et des liens vers ces pages il n'y en a pas.
Je sèche 🙂
Merci pour tes voeux d'avance, surtout ciblés comme ils le sont 🙂 Je te souhaite aussi plein de bonnes choses.
@Omnireso
Ah bah si, quelle andouille je suis, y'a plein de liens vers la recherche...