Mercenaire de l’écriture web, les mots-clés entrent-ils en disruption ?

ecrire

Aujourd'hui j’ai invité Françoise Halper. Elle s’interroge sur les stratégies de contenus frais et plus particulièrement sur l’avenir de l’écriture web ! Si, comme elle, vous pensez que la qualité de contenus peut booster votre visibilité sur internet et améliorer votre référencement, ce qu’elle écrit devrait vous intéresser ! Le clavier est à elle…

De l’écriture naturelle à l’écriture algorithmique, quel choix pour le SEO ?

Si je viens couiner réfléchir sur le blog AxeNet avec la crème des SEO (si, si, je lis souvent vos commentaires !), c’est que ma modeste expérience de rédactrice web est en train de perdre son latin ! Je sais, avec tous les remue-méninges dus au numérique, dans tous les métiers l’heure est aux remises en questions, à la disruption ¹ ! Certains affirment même : « disrupter ou mourir » ! Est-ce aussi l’avenir de l’écriture web ? Le référencement naturel et ses mots-clés entrent-ils en disruption pour un bras de fer algorithmique avec Google ?

Si je commençais par me présenter ? Vous ne me connaissez pas… mais je ne vous en veux pas ! C’est même normal puisque depuis des années je travaille « sous couverture » !

Vous ne le saviez pas ? L’écriture web est souvent un métier d’ombre, de mystère, d’investigations secrètes, d’expression masquée ! Je l’avoue, je n’ai pas tout à fait le profil d’une « James Bond Girl », mais je me dois, comme elle, d’être très proche du 007 pour lequel je m’implique et que j’accompagne dans sa quête de visibilité numérique !

Je ne vais pas m’étendre sur les différences entre ces demoiselles et moi (pour ne pas ruiner votre imaginaire). Je peux quand même souligner, sans leur faire trop d’ombre, que la maturité est à mon avantage !

Le poids des mots, le choc du SEO !

Mais revenons à l’écriture web qui me vaut aujourd’hui de prendre la plume à titre personnel, en commençant par lever le voile sur cette infime part de moi-même, mon petit nom « Francie »… Rédactrice mercenaire depuis presqu’aussi longtemps que le web existe (oups… là, vous allez recadrer le profil. Attention quand même, j’ai dit « presque » !). J’ai appris, découvert au fil de l’eau numérique s’écoulant sur la toile, l’influence des mots (que l’on a petit à petit appelés « mots-clés »), leur imbrication, leur poids, d’occurrence en cooccurrence, d’itération en champs lexicaux... Bref une partie de l’arsenal sémantique du référenceur averti.

Jusque là, rien qui vaille de s’émouvoir. Mais je n’apprendrai rien aux fans de SEO et autres vrais professionnels de l’internet, qu’en lâchant ses bêbêtes sur la toile, son Altesse Google a semé quelque panique chez les gladiateurs du web. Ceux qui jouaient trichaient avec les mots et toutes leurs itérations, ont compris que les algorithmes du Prince étaient désormais assez savants et puissants pour flairer les embrouilles rédactionnelles et les punir !

Depuis quelques temps donc, la mode est à la « qualité de contenus », que quelques SEO visionnaires recommandaient déjà depuis longtemps. Personnellement, j’avais d’emblée traduit « qualité de contenus » par « écriture soignée », « rédactionnel fouillé »… bref, écriture inspirée de ce que l’on apprend quand on flirte avec le journalisme par exemple, et que j’ai eu la chance de découvrir très jeune. Pour autant, il n’est pas de style qui ne doive tenir compte des spécificités du web quand on le choisit comme média. C’est donc très naturellement que j’ai prêté une oreille attentive à ses spécificités jusqu’à m’en faire une spécialité et offrir ainsi à ma « patientèle » une expérience de stratégie de communication numérique globale.

Grâce notamment aux experts SEO (dont Sylvain) que j’ai eu le plaisir de côtoyer, j’ai découvert les rouages profonds de la stratégie SEO qui font tourner la machine web : la philosophie des liens, celle de l’architecture sémantique, le champ lexical, et d’autres exigences souterraines. Pour autant, en termes d’écriture stricto sensu, je n’ai rien changé ni à mon style, ni à ma démarche rédactionnelle !

Sauf que… Sauf que… Oui, je répète, parce que ces deux mots sont l’expression d’un chaos, celui aujourd’hui de mes certitudes épistolaires ! Cela vaut bien une petite redondance, non ?

Sauf que donc, je vois poindre de plus en plus de discours et de thèses sur des constructions rédactionnelles algorithmiques fondées sur des analyses sémantiques puissamment élaborées, sur des chaines de mots corrélés à la thématique client… Concrètement, il faudrait aller puiser, à l’aide d’outils numériques, des méta-mots à parsemer dans nos textes, pour expliquer convaincre Google que l’on écrit bien sur un sujet, des fois que nos vrais mots laisseraient des doutes !

Exemple, disons que je rédige sur les grenouilles. Dans mon texte, je parle d’animal, de batraciens, de têtards, de mare, de nénuphars, d’eau claire ou boueuse… voire de cuisses ou de coassements. Si je suis inspirée, j’ajoute que « petite et verte, elle est mignonne et qu’il vaut mieux qu’elle ne cherche pas à se faire aussi grosse qu’un bœuf vu que l’expérience montre que ça risque de mal finir pour elle »… Ce n’est pas assez clair pour Google ? Il ne comprend pas que je parle de grenouilles ?

Parce que, pour l’internaute, il me semble qu’il n’y a pas photo ! Ou plutôt si, pour lui, comme je suis vraiment très inspirée, j’illustre mon texte d’images (un peu graphiste pour le fun, j’aime jouer avec photoshop…). Bien sûr, des images taguées « grenouilles » quand même, pour les bots aveugles des moteurs. Supposons que mon client soit un chef cuisinier qui a mis à son menu une nouvelle spécialité culinaire à base de grenouilles. Je lui proposerai des contenus annexes sur les origines, et même les réticences parfois liées à cette cuisine… bref une arborescence sémantique et pédagogique propre à intéresser ses internautes et à orienter tous ceux qui interrogeront Google sur les grenouilles.

Pour qui écrire ? Dilemme… le lecteur ou le moteur ?

Alors maintenant, la question qui fâchera sans doute : est-ce que Google exige vraiment une écriture algorithmique truffée de méta-mots pour envoyer du trafic à une page ? Parce que si c’est le cas, des logiciels feront/font ce rédactionnel calculé bien mieux que moi, que vous, que nous humains ! Déjà certains médias utilisent ces plumes artificielles, mais pour une prose factuelle et leur écriture insipide se repère (encore) assez bien. Mais si l’intelligence artificielle dès à présent peut gagner au jeu de GO sur un vrai joueur, l’écriture risque pour elle de devenir très vite un jeu d’enfant !

Aussi, tout en rédigeant un peu quand même pour ranker, l’écriture et le langage naturel ne sont-ils pas à privilégier, voire à défendre ? D’autant qu’il me semblerait paradoxal que notre « moteur préféré », qui dit vouloir faire le bonheur de l’internaute, ne préfère pas nos petits mots d’humains ! Certes, sans doute moins par humanisme pur que par intérêt pour le placement de ses publicités. Mais quand même !

Du coup, la question qui tue n’est-elle pas : « est-ce que l’internaute sera mieux servi par un contenu rédigé par un logiciel ou un robot » ? Est-il possible de répondre avec certitude ? Cela m’arrangerait que l’on me dise que non !… Parce qu’alors, je tenterais bien une métaphore ! Et puisque j’ai commencé à flirter avec celle de la cuisine, continuons.

En cuisine aussi les mœurs ont changé en fonction des mutations sociétales. Dans les années 60, les plats surgelés entrent dans les rayons des magasins. Cette arrivée, conjuguée à un nouvel art de vivre consacrant les loisirs, a propulsé ces produits sur toutes les tables ! Mais aujourd’hui, ce que l’on voit se développer, ce sont les cours pour apprendre à cuisiner soi-même de bons produits. Les émissions de télé à base de « grands chefs » et de « bonne cuisine » font recette (oups… le jeu de mot !). Les ventes de robots ménagers, même hors de prix, sont en plein essor ! Quant aux surgelés « made by a machine », ils ont de moins en moins la cote.

Bon, ok, il est peut-être osé de faire ce parallèle entre les surgelés, leur déclin et les thèses « SEO algorithmiques » livrées dans leur emballage de méta-mots et autres chaines sémantiques produits par des logiciels surdoués shootés aux Panda, Pingouin, et autres bestioles errant dans les abysses du web… (oups, la phrase est un peu longue, non ?).

Alors « disrupt or not disrupt » ? J’aurais plutôt une tendance naturelle à plébisciter les méthodologies créatives, source d’innovation. Je trouve même fun d’engager des recherches sémantiques poussées (comme le fait par exemple Christian Méline), de mots clés en arborescence de méta-mots… Elles favorisent la compréhension, au même titre qu’Einstein a fait avancer la science en calculant la présence des ondes gravitationnelles ! Mais je crains que sur le terrain, le rédacteur web ne se tire une balle dans le pied s’il choisit de recourir à des outils de calcul linguistique que le moteur de recherche maitrise mieux que personne !

Mais quand même, comme tout bon « mercenaire de l’écriture web » je me sens une obligation de résultats. Alors, je ne voudrais pas que « l’instinct primaire » qui me pousse à privilégier l’écriture naturelle me fasse rater une marche importante ! Le numérique bouscule beaucoup de choses. Les entreprises qui se débattent avec leur transition numérique ne vous diront pas le contraire. Alors, c’est quoi la bonne écriture, le bon rédac web aujourd’hui ?

Texte garanti sans EGM (Ecriture Génétiquement Modifiée)

Pour Suivre Françoise Halper : sur Twitter @FrHalper  - Sur LinkedIn

_________________________

¹ Le concept de disruption est né en 1992 sous la plume de Jean-Marie Dru, Président de TBWA https://fr.wikipedia.org/wiki/TBWA […]A l’origine employé comme adjectif, « disruption » caractérise des traumatismes provoqués par des catastrophes naturelles comme des tsunamis […]Remise dans le contexte entrepreneurial, la disruption reflète une « méthodologie créative » indissociable de l’innovation qui, de fait, devient « disruptive » !

(je recevrai un mail quand un article est publié (no spam)

19 thoughts on “Mercenaire de l’écriture web, les mots-clés entrent-ils en disruption ?

  1. Romaric

    Quelle belle plume !
    Un article très intéressant et une analyse qui me semble très pertinente.
    En tant qu'utilisateur d'outils comme 1.fr ou visiblis.com et ayant de nombreux sites sur des thématiques proches, je ne peux que penser à la limite de ces outils.
    Une fois intégrés sur un site, ces mots clés ont tout de même besoin d'un conteneur et c'est bien là qu'une plume de grande qualité va tout changer.
    On parle souvent de contenu dupliqué et typiquement en partant sur la quête de la meilleure sémantique pour chaque expression, on arrive à atteindre un niveau de duplication assez exceptionnel !
    Enfin pour faire adhérer un visiteur humain, même si une première position aide beaucoup, pour qu'il soit engagé durablement ou qu'il passe à l'étape d'achat, il faut de l'originalité, de la créativité, il faut créer de la confiance. Un robot y arrivera probablement un jour, mais pour le moment nous n'y sommes pas.
    Alors Francie je pense que vous aurez pendant encore très longtemps l'occasion d'éblouir la rétine de vos lecteurs par votre verve.

  2. Camille

    Ouais... Cet article me laisse un goût bien métallique dans la bouche. A croire que j'en crache mon petit coeur brisé par cette réalité.

    Sans déconner, j'y pense depuis un moment à ça, et je n'ai pas osé en faire un papier, car trop négatif, trop angoissant. Alors le lire, reflétant - justement - mes peurs les plus primaires, je me te dire que j'ai les molaires qui grincent.

    C'est une réalité qui arrive dans la gueule des Rédacteurs, et ça fait très très mal. Parce qu'avant même que l'on ait des bots, les techniques (intéressantes) mises en place dénaturent de plus en plus le processus. Finalement, pour ceux qui aiment écrire, il ne restera plus d'autre choix que de quitter (peut-être ?) cette profession pour s'effacer aux profits de machines, de claviers, et autres "frétilleurs" compulsifs de caractères.

    Pourquoi j'ai cliqué sur ton article un dimanche matin :'( ?

    PS : Merci parce que même si j'ai envie de tester les questions relatives à la gravité, c'était ultra intéressant, et nécessaire.

  3. Christophe

    Et bien, contrairement à @Camille , j'ai pris du plaisir à lire ce texte remarquablement écrit, un dimanche matin, au retour des vacances ( presque pas de web pendant une semaine, des vraies vacances...).
    Je perçois bien la crainte de ex-machina futura qui saura mieux "ranker" qu'un humain. Ces outils qui automatisent notre contenu et l'optimisent seront peut-être un jour pisté par robot GG ? La guerre des robots seo ?
    D'ici là, j'aime lire et croire qu'on peut écrire de façon pertinente pour que le texte soit avant tout agréable à lire.
    Je crois ( mais je ne suis pas expert du tout) que les outils d'ultra optimisation des contenus sont parfait pour tout ces blogs ( j'avoue j'y participe) qui existent pour offrir des articles invités ou autres backlinks magiques.

    Enfin, en lisant @Romaric, j'ai découvert le site 1.fr qui utilise comme test sémantique...l'amphibien vert, de la famille des batraciens qui saute de nénuphars en nénuphars, coasse, etc... ( si l'article ranke pas sur Grenouille après tout ça...) ( ). Mais que se passe-t-il avec les grenouilles ?
    Alors j'illustre avec un groupe de rock local qui a eu son heure de gloire avec " Oh ma Grenouille" ( -https://www.jamendo.com/track/59127/oh-ma-grenouille?)

  4. Francie

    @Romaric : merci, Vraiment ! Et du coup, si c'est pour éblouir les rétines, alors ok, je veux bien signer pour longtemps encore ! 😉

    Et @Camille : Allez, c'est pas encore si grave ! 😉 Je veux croire que l'humain sera capable de faire la différence avec les robots !
    La question n'est pas récente, dès 1950, le test de Turing confronte la sémantique de l'homme et celle des machines. La question de Turing était de savoir si la machine pouvait "penser". On voit aujourd'hui, avec le deep learning, que la machine peut apprendre à apprendre... Oui, cela peut devenir inquiétant pour l'humain, sauf... s'il maitrise l'humour ! Le "second degré" n'entre pas encore dans les talents de la machine. A nous de savoir nous montrer meilleurs que les robots... C'est toujours sur des challenges que l'humain s'est dépassé, mis debout, puis assis au clavier !

    Merci aussi @Christophe ! Sans doute faudra-t-il distinguer désormais l'écriture "alimentaire" et celle pour nos congénères !

  5. Sylvain Auteur de l’article

    Tout d'abord Françoise, merci d'avoir publié cet article ici.

    Ensuite sur le fond. Je pense que les algorithmes sont bien meilleurs et surtout plus rentables que l'humain sur certains aspects.

    Prenons par exemple le décès d'un artiste. En quelques secondes un algo est capable de publier un article qui retrace toute une carrière, les entités nommées permettent de récupérer toute une discographie, de retrouver les photos majeures, de retrouver les articles de presse pour faire des liens.

    Prenons le cas d'une news comme un crash d'avion, l'algo récupère tout en quelques secondes, les accidents déjà répertoriés avec le même modèle d'avion, ou le même constructeur, ou au départ du même aéroport. Il est capable de compiler bien plus que ne le fera un humain.

    Pulier de manière automatisée est ensuite d'une facilité déconcertante, il suffit de regarder certains fils Twitter pour s'en convaincre. Des journaux US ont déjà mis en place cette automatisation d'articles ultra efficace dans le cadre de news.

    En revanche...

    Un algo est incapable de donner un avis, de faire une véritable analyse conjoncturelle, incapable de traiter le second degré, l'humour. Certaines tournures de phrases lui sont interdites dans ce cadre. D'ailleurs, certains algo ( chez Google) détectent et combattent déjà certaines publications automatisées trop flagrantes. Par exemple, Google reconnaît un texte traduit automatiquement.

    Les vrais rédacteurs humains ont donc encore une belle longueur d'avance dès que l'on attaque un sujet de fond... Et c'est tant mieux 🙂

    Ensuite, si on envisage les choses sur le plan SEO, il me semble assez facile d'aller récupérer le bon champ lexical, de bien travailler ses titres et intertitres, le bien travailler un châpo, bref, rien d'insurmontable avant d'écrire un article humain.

  6. Jimmy

    Juste un petit mot pour simplement dire "merci".

    Profitons mes ami(e)s du monde dans lequel on vit qui semble se déshumaniser la vitesse de l'éclair. L'avenir semble bien sombre en effet, et étant un grand fan du film des Wachowski, je me dis qu'un jour Google sera notre "matrice", connecté à tous et tout, il contrôlera le monde.
    Nous serons alors ses esclaves (nous le sommes peut-être déjà...).

  7. Philippe

    Ça me semble bien compliqué tout ça ! J'espère en apprendre plus sur le référencement en général car avec cet article, je suis largué.

  8. Olivier

    C'est un vieux débat, faut-il écrire pour l'internaute ou pour les robots ? Les deux mon général ! 🙂

    Ceci dit je rejoins complètement Romaric sur les dangers de duplication avec la quête des champs lexicaux, c'est un vrai risque avec les outils sémantiques communs désormais. A tous mettre les même termes ca va faire des beaux taux de similarité.

  9. Sylvain Auteur de l’article

    @ Olivier
    Hum... pas très d'accord la dessus.
    C'est justement la "similarité" lexicale qui fait que Google place la page dans le bon cluster. Et puis avec 20 mots similaires dans un contenu de 600, on est loin d'un risque quelconque. Qu'en penses tu ?

  10. lilwenn

    c'est vraiment très compliquer pour écrire un bon contenu
    car il faut respecter plusieurs paramètres .

  11. Christophe

    Produire du contenu et élaborer une réflexion sont 2 choses bien différentes. Comme dit plus haut dans le commentaire de l'hôte de cette page, un algo ne peut pas (encore) réfléchir. Ni reprendre les idées des uns et des autres pour les réunir, les synthétiser (quoi que) et surtout il ne peut pas argumenter à partir d'idées (sortir des stats, des comparaisons, oui, ça existe aux USA pour le basket, le baseball et la météo par exemple).

    Un robot ne peut pas faire ce que je viens de faire : lire les commentaires, sélectionner un argument qui m'a plu, l'étayer ou argumenter autour. Un robot ne sait pas non plus transposer des concepts et réutiliser les réflexions d'un domaine d'activité à un autre.

    Pour la rédaction web destinée à être lue par les humains, on a encore du travail manuel devant nous.

  12. Olivier

    @ Sylvain

    c'est trop tôt pour savoir quelles conséquences ca peut avoir sur le duplicate content étant donné que l'utilisation de ces outils est encore relativement anecdotique (disons pas généralisée). En revanche ce qui est certain c'est que ca va dans le sens d'une uniformisation du contenu puisque chacun va aller récupérer les termes identiques d'un champs lexical commun. Alors que le bon sens voudrait l'inverse. Sur ce point ca me semble indéniable. Et d'autant plus "inquiétant" que les outils proposant l'analyse des champs lexicaux demeurent peu nombreux aujourd'hui, et par définition, vont vraisemblablement proposés sensiblement les même suggestions puisque le corpus sera très similaire.

    Maintenant, bien sur la bonne pratique est de noyer ces termes dans un contenu plus large et varié. Néanmoins on sait que la plupart des textes sur un même sujet partagent souvent un certain nombre de mots identiques (je parle ici des mots communs qui servent à habiller le discours, à donner du rythme ou structurer le texte) et si chacun y ajoute à l'avenir les termes appartenant au même champs sémantique de façon systématique, ca ne va que renforcer la similarité des pages. Qui plus est les termes forts du texte seront tous (ou en grande partie) identiques et c'est surtout cela qui m'interpelle. Si à grenouille, batracien, têtard, mare, animal et vert on rajoute tous "Goliath, rousse, rainette, taureau, verniculaire, salamandre, tourbière et roseaux" parce que les outils suggèrent que ca renforce le champs lexical - et donc la pertinence de la page -, ca va pour moi forcément finir par créer du DC si le sujet est largement traité.

    Je m'interroge aussi sur la mauvaise utilisation de ces champs lexicaux notamment sur le "lexical spamming" (oui j'invente un nouveau terme) et la perception que pourraient en avoir les moteurs de recherche à terme, l'impact sur les pages de qualité qui utiliseraient ces même termes.

    A la place de Francie je ne m'inquièterais pas trop, la différence se ferait alors sans doute sur la qualité du style, la diversité du texte et l'originalité de l'approche (déterminée à travers des métriques utilisateurs ou la richesse du vocabulaire par exemple).

    Peut-être que je ne vois qu'une partie du sujet et "dramatise" un peu mais il me semble utile de se poser la question.

  13. Sylvain Auteur de l’article

    @ Olivier
    Il y a sans doute du vrai dans ce que tu dis (à suivre). N'oublions pas toutefois qu'il y a bien d'autres critères dans le positionnement. Et je pense notamment au comportement de l'utilisateur. Et là, comme tu le dis, la véritable qualité perçue par l'humain, liée au style, à la qualité d'une analyse, etc. fera en grande partie la différence.

  14. Francie

    @ Olivier

    Je serais assez d'accord sur cette analyse prospective ! Elle rejoint un peu ma métaphore des aliments surgelés ! 😉 Ils ont longtemps rempli les caddies mais aujourd'hui, les légumes frais commencent à prendre leur place... Reste que pour ce retour aux sources de bonnes pratiques alimentaires, il aura fallu quelques décennies. Cela ira certainement + vite avec l'écriture web...

    Au-delà de cette question, ce qui m'interpelle surtout c'est de savoir si un jour (prochain ou pas) les "intelligences artificielles" sauront rédiger mieux que nous, humains, ne le faisons !

    Si c'est le cas, elles ne se poseront sans doute plus la question des champs sémantiques ou lexicaux... les "IA" calculeront instantanément les bons mots au bon endroit !

    Mais sauront-elles écrire avec cœur, émotion, humour, ambiguïté... j'espère que non ! En faisant un peu de science fiction, ne peut-on imaginer que Google ait gardé une certaine longueur algorithmique d'avance et qu'il ait mis dans ses critères la valeur "second degré" propre à l'humain ?

  15. Romuald Paris

    Waouhh ! Superbement bien écrit, on lit que trop rarement des article comme celui-ci.
    Merci Sylvain pour ton blog et à Françoise d'avoir une si jolie plume !

    Je demande à lire plus souvent des articles comme ça !

  16. Samuel Hounkpe

    CQFD ! Une approche totalement algorithmique de l'écriture revient vraiment à se tirer une balle dans le pied, comme le sous-entend très bien Françoise. Quoi de plus facile à démasquer pour Google et son deep-learning implémenté à ses algos qu'une soupe de mots assemblés par un soft ou un impétrant essayant de copier celui-ci?
    Un lion qui imite un lion devient un singe.
    Et je pense que Google privilégiera encore longtemps les rédacteurs humains et leurs jolis détours métaphoriques ou allégoriques.
    Ouf, merci pour cet article je pensais finir par défaillir devant toute cette logorrhée qui viserait à mettre en équation la rédaction, ce qu'il y a de plus profondément humain, les mots, le verbe quoi!
    Et enfin prendre les 100 premiers résultats d'une requête pour retourner un assemblage de ceux-ci, ce n'est pas tenir compte de facteur primordiaux tels que le contenu entier du site père, son âge, son linking interne, la frâicheur des pages (Cafeine) et j'en passe. C'est tellement loin d'une méthode scientifique même si cela veut en prendre les traits par le truchement d'un jargon empli de néologismes ridicules à la façon d'un Lacan. Ceux qui ont fait psychologie me comprendront. 😀

  17. Clemios

    Merci pour cet article ! Je suis en train de monter un petit site dans le cadre d'un concours de référencement. J'y ai introduit un article sur la SEO et j'aimerais votre avis d'experts ! Le mot clef a référencer est "malwok", je pense que grâce a votre blog j'ai déjà bien avance. Si vous pouviez faire un tour sur mon site et m'en faire un commentaire par mail ca serait super chouette 🙂
    Bonne journée a tous et bon référencement !
    PS: Voici l'adresse de mon article sur la SEO : -http://malwok.clementfleury.fr/la-seo-selon-malwok/

  18. Arnaud

    Je suis un peu dans la même position que toi sauf que moi je suis en stage en en entreprise et que l'on m'a donné pour thème : Les stages en Entreprise.

    J'aime vraiment la manière que tu as d'écrire, la lecture est très agréable et en plus on en apprend beaucoup sur comment écrire sur le web. J'espère un jour avoir 1/10 du talent d'écriture que tu possèdes.

    Arnaud

  19. Françoise

    @ vous tous, je voudrais dire que je suis très touchée par vos compliments !
    D'autant que l'écriture (vous l'auriez deviné !) me passionne !
    En tant que telle déjà. Je "gribouille" depuis l'enfance... Mais aussi comme élément central de toute stratégie de communication numérique, dont j'ai fait mon métier.

    Je voudrais aussi et surtout remercier Sylvain qui m'a invitée à "papoter" avec vous, me donnant ainsi l'opportunité d'aborder ce sujet de l'écriture web, son évolution, son devenir face aux outils numériques de plus en plus "intelligents" !

    Le numérique fait bouger les lignes dans tous les métiers. Il faudra nous y faire. Mais écrire renferme un supplément d'âme... à garder pour nous, Humains !

    Merci Sylvain de m'avoir accueillie, électron libre, devant cet auditoire de pros ayant une approche technique très pointue. cela ne me semblait pas évident d'arriver ici avec mes "petits mots" en liberté !

    Merci pour ce moment ;-)... avec vous tous !

Partagez sur :

Les commentaires sont fermés.