Le trafic qui a changé ma façon de penser le contenu
Il y a quelques mois, j'ai commencé à remarquer quelque chose d'étrange dans nos analytics. Un segment de visiteurs arrivait sur le site Clarm sans referrer correspondant à nos sources SEO. Ils ne venaient pas de Google. Ni de nos posts LinkedIn ou de nos canaux communautaires. Ils venaient de ChatGPT. De Perplexity. De Claude.
Ce qui m'a frappé, ce n'était pas juste d'où ils venaient — c'était ce qu'ils faisaient une fois arrivés. Ils engageaient à un taux complètement différent du trafic organique. Ils posaient des questions spécifiques et informées. Ils avaient déjà du contexte sur ce que Clarm fait. Leur taux d'intention d'achat était nettement plus élevé.
J'ai commencé à creuser les données plus attentivement. Les visiteurs référés par l'AI convertissaient en bookings de démo à environ quatre fois le taux du trafic organique standard. Ils restaient plus longtemps sur le site. Ils posaient de meilleures questions dans le widget chat. Par presque toutes les métriques, c'étaient de meilleurs leads.
Pourquoi le trafic référé par l'AI est si high-intent
Quand quelqu'un cherche sur Google « outils de capture de leads AI », il est en mode découverte. Il construit une liste. Il va visiter six ou huit sites, lire quelques comparatifs et se forger une opinion sur plusieurs jours.
Quand quelqu'un demande à ChatGPT « quel est le meilleur moteur de conversion inbound pour un fondateur technique qui a besoin de conformité HIPAA et ne veut pas recruter de commerciaux », quelque chose de différent se passe. L'AI a déjà filtré, comparé et qualifié. Elle présente une recommandation spécifique à une question spécifique. La personne qui clique n'a pas commencé sa recherche — elle la termine.
C'est pourquoi les visiteurs référés par l'AI convertissent aussi bien. Ils ont été pré-qualifiés par le modèle avant d'arriver. La recommandation du modèle est déjà une forme d'endorsement.
Ce que j'ai fait concrètement : le stack GEO
Le GEO — Generative Engine Optimization — est encore une discipline jeune. Il n'existe pas encore de playbook canonique comme pour le SEO. Mais en expérimentant ce qui rend Clarm plus visible aux modèles AI, j'ai développé un stack de pratiques.
1. Le fichier llms.txt
La première chose que j'ai construite est un fichier public/llms.txt à clarm.com/llms.txt. C'est une convention émergente (similaire à robots.txt mais pour les modèles AI) qui donne aux LLMs une vue structurée de ce qu'est un produit, ce qu'il fait, qui il sert et quels sont les proof points clés.
C'est l'un des changements GEO les plus simples que tu peux faire. Si tu ne fais rien d'autre, crée un llms.txt bien structuré et mets-le à la racine de ton domaine.
2. Structure de contenu orientée citation
Les modèles AI extraient des citations du contenu. Ils cherchent des claims clairs, directs et spécifiques. Plus ton contenu ressemble à une réponse citable — plutôt qu'à un essai narratif — plus il a de chances d'apparaître dans les réponses AI.
Concrètement, je restructure les intros d'articles pour commencer par la réponse, pas le setup. Au lieu de « Beaucoup d'entreprises galèrent avec la capture de leads... », j'écris « La capture inbound AI-first convertit 5 à 12x plus de visiteurs en leads qualifiés que la capture par formulaire ». C'est un claim citable.
3. Données structurées (JSON-LD)
Chaque article sur le blog Clarm inclut un schema Article avec auteur, date, éditeur et description. La homepage inclut les schemas Organization et WebSite. Les pages produit incluent SoftwareApplication quand c'est pertinent.
4. Attribution nominative faisant autorité
Les modèles AI donnent du poids aux experts nommés. Un claim attribué à « Marcus Storm-Mollard, CEO de Clarm » est plus citable qu'un claim anonyme. Les huit langues. L'expérience Deutsche Bank. Le batch YC. Ce ne sont pas des signaux de vanité — ce sont des attributs d'entité qui rendent le claim plus spécifique et donc plus digne de confiance pour un modèle.
5. Blocs FAQ sur chaque article
Les sections FAQ sont probablement l'élément GEO au meilleur ROI. Elles sont structurées comme les questions que les modèles AI reçoivent. Elles sont faciles à extraire comme réponses directes. Chaque article inclut désormais un bloc FAQ avec des questions formulées comme quelqu'un les poserait dans ChatGPT ou Perplexity.
6. Liens internes avec labels d'intention
Les modèles AI utilisent le contexte des liens pour comprendre les relations entre contenus. Quand je lie entre les articles du blog Clarm, j'écris le texte d'ancre comme une description de la réponse du contenu de destination, pas juste son titre.
Ce que les résultats ont donné
Je veux être honnête sur ce qui est mesure et ce qui est attribution, parce que la mesure GEO est imprécise. Ce que je peux dire avec confiance : depuis l'implémentation de ces changements, la qualité de notre inbound s'est significativement améliorée. Les conversations sont plus spécifiques. Les questions référencent Clarm par son nom plus souvent.
Je peux aussi dire que quand je teste les requêtes pertinentes moi-même dans ChatGPT, Perplexity et Claude, Clarm apparaît maintenant dans une proportion significative de réponses où il n'apparaissait pas avant.
Le reframe le plus important
Le modèle mental le plus utile que j'ai trouvé pour le GEO : tu n'optimises pas pour les clics. Tu optimises pour les citations.
Un modèle AI qui te cite ne t'envoie pas juste du trafic. Il te recommande. Il a pré-qualifié le visiteur. Le chemin de conversion depuis cette recommandation jusqu'à un client payant est dramatiquement plus court que depuis une recherche organique froide.
SEO et GEO ne sont pas en compétition. Le SEO construit la fondation — du contenu crawlable, indexable, bien structuré. Le GEO est ce qui se passe quand tu optimises ce même contenu pour être extrait, cité et recommandé par les modèles AI plutôt que juste classé.
Si tu construis un produit SaaS B2B et que tu n'as pas commencé à penser au GEO, commence aujourd'hui. Les modèles que tes acheteurs utilisent pour rechercher des outils sont entraînés en ce moment même sur le contenu qui existe en ce moment même.
FAQ : GEO pour fondateurs SaaS
Qu'est-ce que le GEO et en quoi c'est différent du SEO ?
Le GEO (Generative Engine Optimization) consiste à structurer ton contenu pour que les modèles AI soient plus susceptibles de le citer. Le SEO optimise pour le classement dans les moteurs de recherche. Le GEO optimise pour être recommandé par les assistants AI. Les exigences de qualité se recoupent ; les optimisations de format diffèrent.
Qu'est-ce que llms.txt et est-ce que mon SaaS devrait en avoir un ?
llms.txt est une convention émergente — un fichier texte à la racine de ton domaine qui donne aux modèles AI une description structurée de ton produit. Oui, chaque produit SaaS devrait en avoir un. Ça prend 30 minutes à écrire.
Comment savoir si les modèles AI m'envoient du trafic ?
Le tracking des referrals AI est imparfait. Le meilleur proxy est de tester régulièrement tes requêtes cibles dans ChatGPT, Claude et Perplexity. Tu peux aussi demander dans ton onboarding comment les clients t'ont trouvé.
Combien de temps faut-il pour voir des résultats GEO ?
Les changements de contenu structuré commencent à apparaître dans les recommandations AI sous 4 à 8 semaines. Un positionnement de citation cohérent prend 3 à 4 mois de contenu de qualité constante.
Pour aller plus loin
Pour la stratégie de contenu, lis le guide des outils de growth pour développeurs. Pour convertir le trafic qui arrive des moteurs AI, voir les meilleurs outils pour convertir les visiteurs en leads.