Un LLM ne fonctionne pas comme Google. Il ne cherche pas des pages, il cherche des réponses. Et pour les trouver, il suit une mécanique précise que très peu de SEOs maîtrisent encore. En tant qu’agence GEO à La Rochelle, on vous explique concrètement ce qui se passe sous le capot : query fan-out, embeddings, chunking, RRF et MMR. Comprendre ces mécanismes, c’est comprendre pourquoi certains contenus sont systématiquement cités et d’autres jamais, indépendamment de leur qualité rédactionnelle. Un contenu excellent mais mal structuré sera ignoré. Un contenu moyen mais parfaitement chunké sera cité. C’est contre-intuitif, c’est technique, mais c’est la réalité du GEO en 2026. Et une fois que vous l’avez compris, vous ne produisez plus du contenu de la même façon.
Les points essentiels :
- Les LLMs decomposent chaque requête en 4 à 7 sous-requêtes parallèles (query fan-out) et transforment votre contenu en vecteurs numériques (embeddings) : un contenu qui ne couvre pas les sous-intentions implicites de la requête sera écarté, peu importe sa qualité rédactionnelle.
- Trois mécanismes de sélection des sources déterminent si vous êtes cité : le chunking (votre contenu est découpé en blocs de 200 à 500 tokens traités indépendamment), le RRF (être bon à la fois en sémantique et en lexical prime sur être excellent sur un seul axe), et le MMR (les sources redondantes sont pénalisées, différencier son angle vaut plus que faire mieux sur le même sujet).
- Un contenu « citable » n’est pas forcément le meilleur : il doit être extractible (chaque section autonome et compréhensible sans contexte), factuellement précis (chiffres, seuils, conséquences concrètes), et authentiquement humain (la burstiness stylistique est un signal de fiabilité mesuré).
- L’optimisation GEO concrète repose sur quatre actions : auditer ses pages chunk par chunk, construire les nouveaux contenus à partir du fan-out plutôt que du mot-clé, implémenter les schemas Schema.org prioritaires (FAQPage, Article, HowTo), et maintenir une régularité de publication avec 4 mises à jour de contenus existants par mois.
Sommaire
ToggleCe qui se passe vraiment quand on pose une question à un LLM
La plupart des SEOs qui s’intéressent au GEO font l’erreur de traiter un LLM comme un moteur de recherche amélioré. C’est une erreur fondamentale. Google cherche des pages. Un LLM, lui, cherche des réponses. Et pour trouver ces réponses, il ne fait pas qu’une seule recherche, il en fait plusieurs, en parallèle, sans que vous le voyez.
Comprendre cette mécanique interne, c’est comprendre pourquoi certains contenus pourtant excellents ne sont jamais cités, et pourquoi d’autres, objectivement moins bien rédigés, ressortent systématiquement.
Query fan-out : le LLM démultiplie votre question
Quand vous tapez « quelle mutuelle santé choisir pour un artisan à La Rochelle ? », le LLM ne cherche pas cette phrase telle quelle. Il la décompose en plusieurs sous-requêtes traitées en parallèle :
- Mutuelles santé adaptées aux travailleurs non-salariés
- Couverture santé artisans régime RSI
- Comparatif mutuelles indépendants France
- Tarifs moyens mutuelle artisan 2026
- Spécificités santé Charente-Maritime / Nouvelle-Aquitaine
C’est ça, le query fan-out. Une requête entrante devient 4, 5, parfois 7 sous-requêtes que le système va résoudre simultanément avant de synthétiser une réponse unique.
L’implication concrète : une page qui répond parfaitement à la question principale mais qui effleure à peine les sous-thématiques sera écartée au profit d’une source qui couvre le champ complet. Ce n’est pas une question de qualité rédactionnelle, c’est une question de surface couverte. En SEO, on appelait ça le cocon sémantique. En GEO, c’est encore plus brutal.
Comment anticiper le fan-out de vos pages ? Tapez votre requête cible dans ChatGPT et demandez-lui « quelles sont les 6 sous-questions que quelqu’un qui pose cette question veut implicitement savoir ? ». Vous avez votre plan de contenu GEO.
Les embeddings : votre contenu transformé en point dans l’espace
Quand votre contenu est ingéré par un LLM, il n’est pas lu comme du texte. Il est transformé en vecteur numérique, une liste de 768, 1024 ou 1536 chiffres selon le modèle. Ce vecteur représente la « position sémantique » de votre contenu dans un espace mathématique à n dimensions. On parle d’embeddings n-dimensionnels.
Pour visualiser : imaginez un espace en 3D où chaque concept a une position. « Mutuelle » est proche de « santé », lui-même proche de « couverture », « remboursement », « cotisation »… La requête de l’utilisateur est elle aussi transformée en vecteur. Le système cherche les contenus dont le vecteur est le plus proche de celui de la requête. C’est la recherche par similarité vectorielle.
Ce que ça change pour vous : les mots-clés exacts comptent beaucoup moins qu’en SEO traditionnel. Ce qui compte, c’est la densité sémantique de votre contenu. Un texte qui utilise naturellement le bon champ lexical sera vectoriellement plus proche de la requête qu’un texte sur-optimisé avec des occurrences forcées.
Un artisan plombier qui rédige lui-même un article sur le détartrage des chauffe-eau va naturellement utiliser « calcaire », « anode magnésium », « température de consigne », « groupe de sécurité »… sans y penser. Ce champ lexical crée un embedding dense et cohérent. Un texte full IA produira quelque chose de propre mais sémantiquement creux, dans une position vectorielle plus éloignée. Et donc moins souvent cité.
C’est le paradoxe du GEO : la meilleure optimisation technique, c’est d’écrire comme un vrai expert.
La sélection des sources : comment le LLM classe ce qu’il trouve
Une fois qu’il a trouvé des dizaines de sources potentielles, comment le LLM choisit-il lesquelles citer ? C’est là qu’interviennent trois mécanismes que pratiquement aucun SEO ne maîtrise encore : le chunking, le RRF et le MMR.
Chunking strategy : votre contenu ne se lit pas comme vous le croyez
Avant d’être analysé, votre contenu est découpé en blocs. On appelle ça le chunking. Un système RAG (Retrieval-Augmented Generation, le mécanisme qui permet à un LLM d’aller chercher des sources externes) ne lit pas votre article du début à la fin. Il le découpe en morceaux de 200 à 500 tokens (environ 150 à 380 mots) et traite chaque morceau indépendamment.
Exemple concret : vous avez rédigé un guide sur la mutuelle santé pour artisans. Votre introduction fait 300 mots, votre première vraie section commence au mot 320. Le système découpe à 256 tokens. Résultat : votre meilleure information se retrouve à cheval sur deux chunks. Elle devient partiellement invisible.
L’implication directe : chaque section de votre contenu doit être autonome. Un chunk doit pouvoir être lu sans le contexte de ce qui précède et rester compréhensible. Une section qui commence par « Comme on l’a vu précédemment… » ne survivra pas au chunking.
La bonne pratique : chaque H2 ou H3 doit contenir sa propre définition, son propre contexte, sa propre conclusion. Rédigez comme si chaque section était un article indépendant.
Autre piège : les tableaux mal balisés en HTML deviennent du charabia une fois découpés en tokens. Un tableau <table> proprement balisé avec des <th> explicites survivra au chunking. Un tableau fait en espaces dans un éditeur WYSIWYG, non.
RRF : pourquoi être bon partout bat être excellent quelque part
Une fois vos chunks créés, le système effectue deux recherches simultanément :
- La recherche sémantique vectorielle : quelle source est la plus proche sémantiquement de la requête ?
- La recherche lexicale classique (type BM25) : quels documents contiennent les bons termes, dans les bonnes fréquences ?
Ces deux classements donnent souvent des résultats différents. Le système doit les fusionner en un seul. C’est là qu’intervient le RRF, Reciprocal Rank Fusion. La formule : pour chaque source, on additionne l’inverse de son rang dans chaque classement. Un site classé 2e en sémantique et 3e en lexical obtient un score RRF plus élevé qu’un site classé 1er en sémantique mais 15e en lexical.
Ce que ça signifie concrètement : un contenu solide sur les deux dimensions, sémantiquement riche ET lexicalement précis, battra systématiquement un contenu exceptionnel sur une seule. C’est l’équivalent GEO du profil de liens naturel en SEO.
Un expert plombier qui parle de « résistance stéatite » et « thermostat monophasé » sera fort en sémantique. Mais s’il n’utilise jamais « chauffe-eau électrique panne » que tapent ses prospects, il sera faible en lexical. Le RRF le pénalisera.
MMR : l’algorithme qui récompense la différence
Le MMR pour Maximal Marginal Relevance gère la diversité des sources sélectionnées. Son principe : une fois qu’une source a été choisie, toute source qui dit la même chose a moins de valeur. Le système cherche activement des sources complémentaires, pas redondantes.
Exemple : ChatGPT répond à « comment choisir son assurance habitation ». Il sélectionne la source la plus proche de la requête. Pour la deuxième source, il cherche la pertinence maximale moins la similarité avec ce qu’il a déjà sélectionné. Une source qui répète la première sera pénalisée. Une source qui apporte un angle différent, exclusions de garantie, locations saisonnières, comparaison des franchises, sera favorisée.
L’implication stratégique : si dix sites couvrent déjà votre sujet de la même façon, le MMR n’en retiendra qu’un seul. Les neuf autres seront jugés redondants, même excellents.
La bonne stratégie MMR : identifiez l’angle que personne n’a traité sur votre sujet. Pour l’assurance habitation, ça pourrait être « les 7 cas où votre assurance habitation ne vous couvre pas et que votre contrat ne mentionne pas explicitement ». En SEO, on cherchait à faire mieux que les concurrents. En GEO, il faut faire différent.
Les signaux qui font qu’une source est citée ou définitivement écartée
Ce qui rend un contenu « citable »
Un LLM ne cite pas une source parce qu’elle est bonne. Il la cite parce qu’elle est extractible. Un chunk de votre contenu doit pouvoir être utilisé tel quel pour construire une partie de la réponse, sans que le LLM ait besoin d’aller chercher du contexte ailleurs.
Deux façons d’aborder le même point :
Version non-extractible : « Comme nous l’avons expliqué dans la section précédente concernant les régimes fiscaux, le plafond de chiffre d’affaires varie selon l’activité exercée. »
Version extractible : « En micro-entreprise, le plafond de chiffre d’affaires annuel est de 77 700 € pour les prestations de services et de 188 700 € pour les activités commerciales (seuils 2024). Au-delà, le passage en régime réel est obligatoire. »
La seconde est autonome : chiffres, contexte, conséquence. C’est cette version que le LLM va extraire et citer. Trois caractéristiques d’un contenu extractible :
- Précision factuelle : chiffres, dates, seuils, pourcentages. « 77 700 € » prime sur « un plafond assez élevé pour la plupart des indépendants ».
- Complétude locale : chaque affirmation porte sa propre justification dans la même phrase ou le même paragraphe.
- Neutralité du ton sur les passages factuels : les sections d’opinion ont leur place, mais les passages à citer doivent être rédigés dans un registre informatif.
Les formats qui survivent et ceux qui disparaissent
Les FAQ structurées sont le format le plus efficace, et de loin. Une question explicite suivie d’une réponse directe et complète, c’est un chunk quasi-parfait. La question ancre sémantiquement le chunk. La réponse est auto-suffisante par définition.
Les listes numérotées avec contexte intégré fonctionnent, à condition que chaque item soit compréhensible seul. « 3. Vérifiez votre plafond de cotisations » ne suffit pas. « 3. Vérifiez votre plafond de cotisations : en micro-entreprise, vous payez des charges sociales sur la totalité de votre CA encaissé, même si vous ne vous versez pas de salaire. Le taux est de 12,3 % pour les activités de services en 2026. » Ça, c’est un item extractible.
Les définitions en ouverture de section sont sous-estimées. « Le délai de carence, c’est la période pendant laquelle votre contrat est actif mais ne vous couvre pas encore. En assurance santé, il varie généralement de 1 à 12 mois selon les garanties. » Deux phrases, un chunk d’entrée de qualité maximale.
Les tableaux comparatifs fonctionnent bien si le balisage HTML est propre : <table> avec <th> explicites et <caption> descriptifs. Vérifiez le code source rendu, pas l’aperçu visuel.
Ce qui ne fonctionne pas :
- Les introductions en entonnoir « Dans cet article, nous allons aborder… », consomment des tokens sans produire d’information extractible.
- Les transitions narratives et reformulations de sections précédentes, invisibles une fois découpées en chunks indépendants.
- Les métaphores filées sur plusieurs paragraphes, un chunk principalement poétique sera écarté au profit d’un chunk plus dense.
L’authenticité comme signal technique
Les modèles de langue ont une caractéristique mesurable appelée la perplexité. Plus un texte est prévisible, plus chaque mot est le choix le plus probable après le mot précédent, plus sa perplexité est basse. Un texte généré par IA tend naturellement vers une perplexité basse.
Un texte humain a une perplexité plus élevée et surtout plus variable. Un expert alterne naturellement entre passages techniques denses et formulations relâchées. Il utilise des tournures idiomatiques, des raccourcis conceptuels, des exemples tirés de son expérience. Cette variabilité, la burstiness, est un signal d’authenticité que les systèmes de détection mesurent.
Ce que ça change dans votre façon de rédiger :
- Ne lissez pas votre contenu. Un paragraphe technique suivi d’un exemple familier, c’est un profil de perplexité humain.
- Gardez vos références terrain. « Sur nos clients en Charente-Maritime, on observe… » ancre votre contenu dans une expérience réelle.
- Assumez les imperfections stylistiques. Ce sont des marqueurs d’humanité à conserver.
- Évitez les structures trop symétriques. Trois points développés en exactement deux phrases avec la même construction syntaxique, c’est un pattern IA immédiatement reconnaissable.
Les signaux techniques qui vous éliminent avant même la lecture
La vitesse de chargement est un filtre d’entrée pour les systèmes qui crawlent en temps réel comme Perplexity. Un site qui répond en plus de 3 secondes sera moins fréquemment indexé. La tolérance est encore plus basse qu’en SEO classique.
La cohérence entre métadonnées et contenu est mesurée à l’embedding. Si votre balise <title> dit « Mutuelle santé artisan La Rochelle » et que votre contenu parle de complémentaire santé en général sans ancrage local, la distance vectorielle entre vos métadonnées et votre contenu est détectée et pénalisée.
Le balisage sémantique HTML : les balises <article>, <section>, <main>, les attributs lang, les schémas Schema.org. Ils guident le découpage et l’interprétation du contenu par les crawlers IA. Une page sans structure sémantique sera découpée de façon arbitraire.
La stabilité de l’URL et l’historique du domaine jouent un rôle dans les modèles dont les données d’entraînement intègrent des snapshots temporels du web. Un domaine expiré racheté avec un historique thématique incohérent crée des signaux contradictoires. Pas rédhibitoire, mais pénalisant.
Optimiser concrètement pour le GEO : la checklist terrain
Étape 1 : auditer vos pages existantes avant de créer du nouveau contenu
L’erreur classique : vouloir produire de nouveaux contenus immédiatement. Avant ça, regardez ce que vous avez déjà. Vous avez probablement des pages qui ont de la valeur sémantique réelle mais qui ne sont jamais citées pour des raisons purement structurelles.
L’audit chunk par chunk : prenez vos 5 pages les plus importantes. Pour chacune, découpez mentalement le contenu en blocs de 300 mots. Pour chaque bloc, posez-vous une seule question : si un LLM extrait ce bloc sans contexte, est-ce qu’il répond à quelque chose de précis ? Si la réponse est non pour plus de la moitié de vos blocs, votre page a un problème de structure GEO, pas de contenu.
Les signaux d’alerte à repérer :
- Sections qui commencent par « Comme mentionné plus haut », « Pour rappel », marqueurs de dépendance contextuelle.
- Paragraphes sans aucun chiffre, date, nom propre ou terme technique spécifique.
- Termes techniques utilisés sans être définis dans la même section.
Ce que vous corrigez en priorité :
Premier niveau : ajoutez une définition courte et autonome à l’ouverture de chaque section principale. Deux phrases maximum.
Deuxième niveau : transformez vos conclusions de section en réponses directes. Au lieu de « Nous venons de voir que le choix du statut juridique est une étape déterminante », écrivez « Le choix du statut juridique détermine directement votre niveau de charges sociales, votre protection en cas d’arrêt maladie, et votre capacité à déduire vos frais professionnels. En micro-entreprise : charges fixes sur le CA, pas de déduction. En SASU : charges sur rémunération uniquement, déduction possible. »
Troisième niveau : ajoutez des FAQ en fin d’article, construites à partir du query fan-out de votre sujet. Tapez votre requête dans ChatGPT et demandez-lui « quelles sont les 8 questions que quelqu’un qui pose cette question veut implicitement savoir ? ». Vous avez votre structure de FAQ GEO.
Étape 2 : produire du nouveau contenu GEO-first
Commencez par le fan-out, pas par le mot-clé. Méthode en trois étapes :
- Prenez votre sujet. Exemple : « assurance RC Pro pour consultant indépendant ».
- Tapez-le dans ChatGPT avec ce prompt : « Tu es un consultant indépendant qui pose cette question pour la première fois. Quelles sont les 7 sous-questions que tu veux implicitement voir répondues ? »
- Ces 7 sous-questions deviennent vos 7 sections. Chacune traitée comme un article court et autonome : définition, réponse directe, chiffres concrets, conséquence pratique.
La règle des trois niveaux de précision pour chaque affirmation importante :
- Le fait brut : « La RC Pro n’est pas obligatoire pour tous les indépendants. »
- Le contexte : « Elle devient obligatoire pour certaines professions réglementées : avocats, experts-comptables, agents immobiliers, médecins. »
- La conséquence pratique : « Sans RC Pro, un sinistre professionnel, conseil erroné qui coûte 50 000 € à votre client, est à votre charge personnelle. En micro-entreprise ou EI, votre patrimoine personnel est exposé. »
La différenciation MMR dès la conception : avant de rédiger, testez votre sujet dans ChatGPT et Perplexity. Regardez quelles sources sont déjà citées et quel angle elles traitent. Votre objectif n’est pas de faire mieux sur le même angle, c’est de couvrir un angle qu’elles ne traitent pas.
Étape 3 : le balisage technique que vous ne pouvez pas ignorer
Les schemas Schema.org à implémenter en priorité :
- FAQPage : le plus impactant pour le GEO. Chaque paire question/réponse est balisée explicitement. Le chunking devient trivial parce que vous l’avez fait vous-même dans le code.
- Article avec
datePublishedetdateModifiedexplicites : une date dans le schema est plus fiable qu’une date affichée visuellement. - HowTo pour vos guides étape par étape : chaque étape balisée devient un chunk autonome.
- LocalBusiness avec NAP complet (Nom, Adresse, Téléphone) : utile pour les requêtes locales.
Sur WordPress : Rank Math ou Yoast pour les schemas de base, Schema Pro pour les schemas avancés. En code direct : JSON-LD dans le <head> de la page.
Vérifiez l’attribut lang="fr" sur votre balise <html>. Les LLMs calibrent leurs embeddings en fonction de la langue détectée.
Le fichier llms.txt, l’équivalent du robots.txt pour les LLMs. Placé à la racine de votre domaine (votresite.fr/llms.txt), il indique aux crawlers IA quelles pages indexer et un résumé de votre expertise. Perplexity le lit déjà. L’adopter maintenant vous place dans les premiers.
Étape 4 : le calendrier éditorial GEO
La régularité de publication a un impact direct sur votre taux de citation dans les modes temps réel. Ce n’est pas une question de fréquence. Publier 8 articles en janvier puis rien en février est moins efficace que 2 articles par mois pendant 4 mois.
La règle du 2-4 en GEO :
- 2 nouveaux contenus par mois, construits selon la logique fan-out + chunks autonomes + différenciation MMR.
- 4 mises à jour de contenus existants par mois : actualisation des chiffres, ajout d’une FAQ, correction des sections trop dépendantes du contexte. Ces mises à jour avec modification de la
dateModifieddans le schema sont des signaux de fraîcheur forts.
Ce que vous arrêtez de faire :
- Produire des articles de 3 000 mots pour « couvrir le sujet à fond ». En GEO, 1 200 mots avec 6 chunks parfaitement construits bat 4 000 mots avec 2 chunks extractibles noyés dans du remplissage.
- Dupliquer des angles déjà couverts par vos concurrents. Le MMR n’en retiendra qu’un seul de toute façon.
- Réécrire entièrement des pages qui fonctionnent déjà en SEO. Ajoutez des FAQ, rendez les chunks autonomes, ajoutez les schemas manquants. C’est suffisant dans la majorité des cas.
Le récapitulatif opérationnel
Pour chaque page existante à optimiser :
- Auditez chunk par chunk, chaque bloc de 300 mots doit répondre à quelque chose seul.
- Ajoutez des définitions autonomes en ouverture de section.
- Transformez vos conclusions en synthèses informatives avec chiffres et conséquences.
- Ajoutez une FAQ construite sur le fan-out de la requête principale.
- Implémentez les schemas FAQPage et Article avec dates explicites.
- Vérifiez la cohérence entre title, meta-description et contenu réel.
Pour chaque nouveau contenu :
- Partez du fan-out, pas du mot-clé.
- Identifiez l’angle MMR disponible avant de rédiger.
- Structurez en chunks autonomes avec les trois niveaux de précision.
- Rédigez avec le vocabulaire naturel de l’expert, pas du rédacteur web.
- Balisez avec les schemas adaptés dès la publication.
Ce n’est pas une révolution de votre façon de travailler. C’est un ajustement méthodique qui prend 30 à 45 minutes supplémentaires par article, pour un gain potentiel considérable sur la durée, à mesure que les requêtes conversationnelles continuent de progresser.
GEO technique en 2026 : faut-il s’y mettre maintenant ?
Optimiser pour les LLMs, ce n’est pas réécrire tout votre site. C’est ajuster votre façon de structurer, de baliser et d’aborder vos sujets, avec les bons mécanismes en tête. Chunks autonomes, angle MMR différenciant, fan-out anticipé : 30 à 45 minutes de travail supplémentaire par article, pour un avantage concurrentiel qui se construit dans la durée.
Ce qui est rassurant dans tout ça, c’est que les critères des LLMs ne sont pas arbitraires. Extractibilité, authenticité, précision factuelle, différenciation : ce sont exactement les caractéristiques d’un contenu de qualité au sens large. Pas de hack, pas de technique secrète qui disparaîtra au prochain update. Une méthode solide, applicable dès cette semaine sur vos pages existantes, sans tout remettre à plat.
En tant qu’agence GEO à La Rochelle, c’est ce qu’on applique sur nos propres contenus et ceux de nos clients. Les résultats sont mesurables dès 3 à 4 mois sur les secteurs concurrentiels. Reste à savoir si vous voulez les mesurer avant ou après vos concurrents.




