Glossaire académique · GEO · Sémantique IA · Marketing Digital · Édition 2025
40 concepts clés du GEO — Generative Engine Optimization
Guide complet des notions fondamentales du GEO : de l’architecture RAG au chunking sémantique, du share of model aux métriques de citation. Pour chaque concept : une définition académique rigoureuse et une idée pédagogique concrète pour l’enseignement du marketing digital.
Fondements du GEO
N°01/40
GEOGenerative Engine Optimization
Le GEO (Aggarwal et al., KDD 2024) est la pratique d’optimiser contenus et présence en ligne pour être cité, référencé ou recommandé dans les réponses générées par les moteurs IA (ChatGPT, Perplexity, Gemini, Copilot, Claude). Contrairement au SEO qui optimise pour le rang dans un SERP, le GEO optimise pour la citation dans une réponse synthétisée — même sans clic vers le site. Selon Gartner, 25 % des recherches passeront par des moteurs génératifs d’ici 2028.
Audit de visibilité IA : Les étudiants tapent la même question sur Google, Perplexity et ChatGPT. Ils comparent les sources citées dans chaque interface. Qui est visible en SEO mais invisible en GEO ? Qui est cité par l’IA sans être en page 1 Google ? L’expérience démontre que ranking et citation sont deux logiques distinctes.
N°02/40
AEOAnswer Engine Optimization
L’AEO (Answer Engine Optimization) est le terme concurrent de GEO, privilégié notamment par Profound. AEO insiste sur la dimension réponse : l’objectif est d’être la source qu’un moteur IA sélectionne pour répondre directement à une question. D’autres termes coexistent : LLMO, AI Search Optimization, AI Visibility Optimization.
Battle terminologique : Les étudiants cherchent GEO, AEO et LLMO dans Perplexity et ChatGPT. Quelles définitions ces IA donnent-elles ? L’exercice illustre que le GEO est lui-même un sujet à optimiser en GEO.
N°03/40
Zero-clickRecherche zéro clic
Une interaction zero-click se produit quand l’utilisateur obtient une réponse complète directement dans l’interface IA, sans jamais visiter un site web. Le GEO cible ce contexte post-click : la métrique de succès n’est plus le trafic vers le site, mais la mention et l’association de la marque à un domaine d’expertise dans l’esprit de l’utilisateur.
Calcul de la valeur zéro-clic : Les étudiants évaluent la valeur d’une citation IA sans clic : notôriété de marque, préscription implicite, influence sur la décision d’achat. Quel % du funnel se joue désormais dans ChatGPT avant toute visite de site ?
N°04/40
Share of ModelPart de modèle
Le share of model (ou AI Share of Voice) désigne le pourcentage de réponses IA — sur un corpus de requêtes représentatives d’un marché — qui citent ou recommandent une marque donnée. C’est la métrique centrale du GEO, équivalent du share of voice en publicité traditionnelle. Mesuré par des outils comme Profound, Otterly.ai, Peec AI ou Semrush AI.
Mesure manuelle du share of model : Chaque étudiant choisit un secteur et soumet 10 requêtes représentatives à ChatGPT et Perplexity, note les marques citées, et calcule le share of model de chaque acteur. Les leaders GEO sont-ils les mêmes que les leaders SEO ?
N°05/40
Answer-firstFormat réponse-d’abord
Le format answer-first structure le contenu en plaçant la réponse directe à une question dès le premier paragraphe, avant tout développement. Les moteurs IA extraient préférentiellement les passages autonomes qui répondent directement à une question sans nécessiter le reste de la page. Ce format s’oppose à la structure journalistique classique (accroche-développement-conclusion).
Réécriture answer-first : Les étudiants prennent un extrait journalistique (300 mots) et le réécrivent en format answer-first. Ils soumettent les deux versions à Claude en demandant lequel serait plus susceptible d’être cité. L’IA devient le juge de sa propre préférence.
N°06/40
GEO vs SEODifférences structurelles
Le SEO optimise au niveau de la page (rang dans le SERP, taux de clic, densité de mots-clés). Le GEO optimise au niveau du passage : un moteur IA peut citer un unique paragraphe de 60 mots d’un article de 3 000 mots en ignorant le reste. L’unité d’optimisation n’est plus la page mais le chunk autonome. Les mots-clés sont remplacés par les entités et les assertions vérifiables.
Tableau comparatif SEO vs GEO : Les étudiants construisent un tableau à 8 entrées (unité d’optimisation, métrique de succès, format de contenu, rôle des liens, rôle de la fraîcheur, plateformes cibles, outils de mesure, horizon de temps) et déduisent quand appliquer l’un, l’autre, ou les deux.
N°07/40
LLMOLarge Language Model Optimization
Le LLMO est une variante terminologique du GEO mettant l’accent sur l’optimisation pour les LLM spécifiquement. Le LLMO intègre la dimension synthèse : les LLM puissants génèrent de nouvelles formulations en combinant plusieurs sources. L’objectif est d’influencer cette synthèse, pas seulement d’être présent dans les sources.
Expérience de synthèse : Les étudiants fournissent à Claude trois sources contradictoires (une faible, une moyenne, une excellente) et observent comment il pondère et synthétise. Quel poids à la source la mieux structurée ? Quel poids aux chiffres cités ?
N°08/40
AI CrawlExploration IA
L’AI crawl est le processus par lequel les moteurs IA explorent et indexent les pages web : le robot télécharge le HTML brut, élimine le balisage superflu, tokenise chaque phrase, puis construit des vecteurs d’embeddings. Un balisage client-side JavaScript retarde ou empêche l’indexation IA. Le fichier robots.txt et les balises meta robots conditionnent l’accès des crawlers IA.
Audit d’accessibilité IA : Les étudiants utilisent le mode « lecture » du navigateur sur une page web pour simuler ce qu’un crawler IA extrait. Ce résidu de texte brut est exactement ce qu’un LLM traite. Exercice révélateur pour comprendre pourquoi la hiérarchie HTML compte.
Architecture technique
N°09/40
RAGRetrieval-Augmented Generation
Le RAG (Lewis et al., 2020) est l’architecture qui détermine quelles sources sont citées dans les réponses IA. Quand un utilisateur pose une question à Perplexity ou ChatGPT Search, le système : (1) convertit la question en vecteur d’embedding, (2) retrouve les passages les plus proches (cosine similarity), (3) injecte ces passages dans le contexte du LLM. Le GEO vise précisément à optimiser le contenu pour l’étape 2.
Construire un mini-RAG en 2 heures : Les étudiants utilisent NotebookLM (Google, gratuit) pour créer un RAG sur leurs propres notes de cours. Ils testent des questions et observent quels passages sont récupérés. L’expérience rend tangible pourquoi un passage bien structuré est récupéré plutôt qu’un autre moins clair.
N°10/40
Query Fan-outDécomposition de requête
Le query fan-out (Go Fish Digital, 2025) désigne le processus par lequel un moteur IA décompose une requête utilisateur en dizaines de sous-requêtes liées. Exemple : « Meilleur CRM pour startup » génère automatiquement les sous-requêtes « tarifs CRM startup », « fonctionnalités CRM », « intégrations CRM ». Un contenu doit couvrir cet écosystème de sous-requêtes.
Cartographier le fan-out d’une requête : Les étudiants choisissent une requête métier et demandent à Claude de générer les 20 sous-requêtes qu’un LLM pourrait utiliser pour y répondre. Ce travail devient leur plan de contenu GEO pour les 6 prochains mois.
N°11/40
Passage RetrievalExtraction de passages
Le passage retrieval est la capacité d’un système IA à extraire et évaluer des passages spécifiques à l’intérieur d’une page, indépendamment du rang global. Un paragraphe de page 3 peut être cité devant l’ensemble d’une page 1. Les passages qui perdent leur sens hors contexte (« comme mentionné précédemment ») sont systématiquement défavorisés.
Test d’autonomie des passages : Les étudiants prennent un article et lisent chaque paragraphe en isolation. Combien sont compréhensibles seuls ? Le « test d’autonomie » : seuls les passages autonomes sont récupérés par les IA. Ils réécrivent les passages échec.
N°12/40
EmbeddingVecteur sémantique
Un embedding est une représentation numérique dense d’un texte dans un espace vectoriel de haute dimension (768 à 3 072 dimensions). Les moteurs IA ne font pas de matching par mots-clés mais par proximité vectorielle : un contenu sur « optimisation pour moteurs génératifs » peut apparaître pour la requête « GEO » même sans contenir ce sigle.
Visualisation des embeddings : Sur projector.tensorflow.org (gratuit), les étudiants visualisent en 3D comment des concepts proches se regroupent dans l’espace vectoriel. Exercice pratique : tester si leur article est plus proche sémantiquement de la requête cible que les articles concurrents.
N°13/40
Cosine SimilaritySimilarité cosinus
La similarité cosinus est la mesure mathématique utilisée par les systèmes RAG pour évaluer la proximité entre le vecteur d’une requête et le vecteur d’un passage candidat. Un score de 1.0 indique une identité parfaite, 0 une absence de relation. La couverture exhaustive des champs sémantiques d’un sujet augmente la probabilité d’être sélectionné.
Course à la similarité : Les étudiants écrivent deux paragraphes définitoires (un riche en termes variés du même champ sémantique, un avec répétition de mots-clés). Lequel l’IA récupère-t-elle en priorité ? Résultat habituel : la richesse sémantique bat la densité de mots-clés.
N°14/40
Context WindowFenêtre de contexte
La fenêtre de contexte est la quantité maximale de texte (en tokens) qu’un LLM peut traiter en une seule fois. Claude 3.5 dispose de 200 000 tokens ; GPT-4o de 128 000. Dans un système RAG, seuls les passages sélectionnés sont injectés dans cette fenêtre. Un contenu verbeux ou répétitif consomme inutilement le budget de tokens disponible.
Calculer son token budget : Les étudiants utilisent le tokenizer d’OpenAI pour compter les tokens d’un article. Combien de tels articles tiennent dans la fenêtre de contexte de Claude ? Combien de sources concurrentes l’IA peut-elle comparer simultanément ? Cet exercice rend concrète la compétition pour l’espace de contexte.
N°15/40
Freshness ScoreSignal de fraîcheur
Le freshness score est la pondération accordée par les moteurs IA à la récence d’un contenu. Frase (2025) rapporte que les URLs citées par les IA sont en moyenne 25,7 % plus récentes que les résultats SEO traditionnels. Perplexity privilégie les articles des 90 derniers jours. Chaque mise à jour avec de nouvelles données réactive la fraîcheur d’une page.
Stratégie de fraîcheur : Les étudiants analysent 3 articles sur un même sujet (vieux, récent, vieux mais mis à jour régulièrement). Ils demandent à Perplexity lequel est cité. Résultat à discuter : la mise à jour régulière bat souvent la création d’un nouvel article.
N°16/40
RerankingRéordonnancement des sources
Le reranking est l’étape post-retrieval où un second modèle évalue la pertinence, l’autorité et la cohérence des passages récupérés pour sélectionner les meilleurs à injecter dans le contexte du LLM. Les sources de confiance établies (Wikipedia, presses universitaires) sont scored plus légèrement. Pour le contenu de marque sur le web public, il faut franchir des filtres stricts.
Analyse de la hiérarchie de crédibilité : Les étudiants classent les sources citées par ChatGPT sur un sujet (académique, presse, blog corporate, forum, Wikipedia). Ils analysent la proportion de chaque type. Pourquoi Wikipedia est-il surreprésenté (47,9 % des sources selon des études) ?
Optimisation du contenu
N°17/40
ChunkBloc de contenu autonome
Un chunk est une unité de contenu autonome et auto-suffisante que les systèmes RAG peuvent indexer, récupérer et citer indépendamment. Chaque chunk devrait : (1) répondre à une question spécifique, (2) se comprendre sans contexte extérieur, (3) contenir toutes les informations clés en 60 à 200 mots. Un moteur IA extrait un chunk, pas une page entier.
Atelier de chunking manuel : Les étudiants prennent un article de 2 000 mots et le découpent en chunks optimaux (50-200 mots, autonomes, chacun répondant à une sous-question). Ils soumettent les chunks candidats à Claude pour évaluation. Exercice concret de micro-optimisation GEO.
N°18/40
Semantic ChunkingChunking sémantique
Le semantic chunking (Ansehn Glossary, 2025) découpe le contenu par unité de sens (en suivant les titres H2/H3) plutôt que par longueur fixe. Il s’oppose au chunking mécanique (couper tous les 512 tokens). Chaque chunk sémantique couvre exactement un concept : ne pas mélanger définition et instructions dans le même bloc.
Chunking mécanique vs sémantique : Les étudiants prennent un article et l’appliquent avec deux stratégies (coupures à 500 tokens vs coupures aux titres H2/H3). Ils comparent : lesquels sont autonomes ? Lesquels coupent une idée au milieu ? La structure H2/H3 est une décision d’architecture GEO.
N°19/40
ChunkabilitySegmentabilité
La chunkability (Searchable, 2025) désigne la facilité avec laquelle un contenu peut être décomposé en blocs autonomes. Un contenu à forte chunkability a des titres descriptifs (pas créatifs), des paragraphes courts et autonomes, des définitions explicites en début de section. Un contenu narratif et fluide — excellent pour la lecture humaine — est souvent invisible pour les IA.
Score de chunkability : Les étudiants élaborent une grille à 6 critères (titre descriptif, paragraphe autonome, définition présente, chiffre avec source, longueur optimale, absence de référence croisée). Ils scorent 3 pages concurrentes (/6). L’outil devient réutilisable pour auditer n’importe quel contenu GEO.
N°20/40
Entity DensityDensité d’entités
La densité d’entités mesure la concentration de concepts nommés et reconnaissables (personnes, marques, lieux, produits, termes techniques) dans un contenu. Les moteurs IA favorisent les contenus avec des entités précises et cohérentes plutôt que des formulations vagues (« notre solution », « les experts »). Nommer explicitement augmente la pertinence vectorielle.
Chasse aux entités floues : Les étudiants surlignent dans un article toutes les références vagues (« certains experts », « une étude récente ») et les remplacent par les entités précises (nom, date, organisation). Avant/après : l’article devient beaucoup plus solide pour un crawleur IA.
N°21/40
Semantic DensityDensité sémantique
La densité sémantique (Ansehn Glossary, 2025) mesure la richesse conceptuelle d’un bloc de contenu : le nombre de concepts, faits, chiffres et relations pertinents par rapport à la longueur du texte. Frase recommande un ratio de 150 à 200 mots par statistique avec source. La densité sémantique est une métrique distincte de la longueur : un texte court et dense bat un texte long et creux.
Mesure de la densité sémantique : Les étudiants comptent dans un article de 1 000 mots : faits chiffrés avec source, définitions, exemples concrets, références nommées. Ils calculent le score de densité et comparent 3 articles concurrents. L’article le plus dense est-il celui que Perplexity cite en priorité ?
N°22/40
Topical AuthorityAutorité thématique
L’autorité thématique désigne la profondeur et la complétude de la couverture d’un domaine sur un site. Les moteurs IA évaluent si un site couvre exhaustivement les sujets adjacents, les définitions, les comparaisons, les cas d’usage et les questions fréquentes d’un domaine. Un LLM a besoin de trouver plusieurs preuves de l’expertise sur l’ensemble d’un cluster thématique, pas une seule page isolée.
Audit de coverage thématique : Les étudiants cartographient les sous-thèmes que couvre un concurrent bien cité par les IA vs un site peu cité. Ils identifient les white spaces (sous-thèmes non couverts) et construisent un plan de contenu pour combler les écarts. Base d’un audit GEO concurrentiel.
N°23/40
Topic ClusterGrappe thématique
Un topic cluster est une architecture de contenu composée d’une page pilier et de pages satellites interconnectées par des liens internes. Pour le GEO, cette architecture signale à l’IA que le site est une référence exhaustive sur un domaine. Le query fan-out d’une seule question peut nécessiter des réponses issues de plusieurs pages du même cluster.
Design d’un topic cluster GEO : Les étudiants choisissent un sujet et dessinent l’architecture complète : page pilier centrale + 10 pages satellites + liens internes. Ils cartographient comment le fan-out d’une requête utilisateur traverse plusieurs pages du cluster. Livrable : architecture avec intentions de recherche par page.
N°24/40
FAQPage SchemaBalisage Q&R structuré
Le FAQPage Schema est un balisage JSON-LD de type Schema.org qui marque les paires question-réponse d’une page de façon machine-lisible. Les moteurs IA peuvent extraire directement ces Q&R sans analyser le reste de la page HTML. Chaque Q&R est un chunk autonome pré-structuré, immédiatement exploitable par un système RAG. Bing et Google confirment utiliser les données structurées dans leurs LLM.
Générer et valider un FAQPage Schema : Les étudiants identifient 8 questions clés sur un sujet, rédigent les réponses en format answer-first (50-100 mots), génèrent le JSON-LD avec Claude, et le valident sur schema.org/validator. Exercice concret qui produit un livrable directement intégrable dans WordPress.
N°25/40
BurstinessVariété structurelle
La burstiness (Optimizely, 2025) désigne la variation de longueur, de structure et de complexité des phrases au sein d’un texte. L’écriture humaine présente une forte burstiness (alternance de phrases courtes et longues) alors que les textes IA-générés sont souvent homogènes. Un texte trop uniforme peut être détecté comme généré et pondéré plus faiblement dans les filtres de crédibilité.
Diagnostic burstiness : Les étudiants analysent un article IA-généré et un article humain sur le même sujet. Ils mesurent la longueur moyenne des phrases et l’écart-type. L’article IA a généralement un écart-type plus faible. Discussion sur comment éditer un contenu IA pour restaurer la burstiness.
Autorité & confiance
N°26/40
E-E-A-TExperience, Expertise, Authoritativeness, Trustworthiness
E-E-A-T (Google Search Quality Rater Guidelines, 2024) est le cadre d’évaluation de la qualité de contenu utilisé par Google et adopté comme signal de confiance par les moteurs IA. Experience : expérience directe du sujet. Expertise : compétences reconnaissables. Authoritativeness : citations par des sources tierces. Trustworthiness : information vérifiable et transparente. Les bios d’auteurs détaillées et les citations académiques signalent l’E-E-A-T.
Audit E-E-A-T d’une page : Les étudiants évaluent 3 pages concurrentes sur une grille E-E-A-T (4 critères × 3 niveaux) puis refont l’audit en demandant à Claude d’évaluer les mêmes pages. Les scores concordent-ils ? Discussion sur les signaux de confiance machine vs humain.
N°27/40
GroundingAncrage factuel
Le grounding désigne le fait qu’une réponse IA est ancrée dans des sources vérifiables. Pour le GEO, le contenu doit être « groundable » : chaque assertion doit pouvoir être vérifiée par une source tierce. Les contenus non groundables (opinions non attribuées, chiffres sans source, affirmations absolues sans preuve) sont défavorisés dans la sélection des sources par les moteurs IA.
Grounding score : Les étudiants comptent, dans un article, le pourcentage d’assertions factuelles attribuées à une source explicite. Ratio : assertions attribuées / total assertions factuelles. Un grounding score > 70 % caractérise les contenus que les IA préfèrent citer.
N°28/40
Consensus BuildingConstruction du consensus inter-sources
Le consensus building (Discovered Labs, 2025) désigne le principe selon lequel les systèmes IA privilégient les affirmations qui apparaissent de façon concordante dans plusieurs sources indépendantes. Une affirmation soutenue par une seule source est pondérée moins fortement qu’une affirmation confirmée par trois sources indépendantes. Une stratégie GEO doit être omnicanale : site propre + mentions dans des sources tierces.
Analyse du consensus IA : Pour un fait donné (« 63 % des sites reçoivent du trafic IA »), les étudiants cherchent combien de sources indépendantes le reprennent et comment ChatGPT le présente. Comparaison avec un chiffre issu d’une seule source. Discussion sur la stratégie de diffusion de données propriétaires pour créer du consensus.
N°29/40
Entity FootprintEmpreinte d’entité
L’entity footprint désigne l’ensemble de la présence numérique d’une entité à travers les sources que les IA consultent : site web, Wikipedia, Google Knowledge Panel, profils réseaux sociaux, citations académiques, avis, forums, podcasts. Plus l’empreinte est large et cohérente, plus l’IA fait confiance à l’entité. Une entité absente des sources tierces est difficile à citer avec confiance.
Audit d’empreinte d’entité : Les étudiants tapent le nom d’un expert dans ChatGPT et observent les informations spontanément produites. Puis ils vérifient l’empreinte : Wikipedia ? HAL ? Google Scholar ? Presse ? Chaque absence est un point faible à combler.
N°30/40
Citation AuthorityAutorité de citation
L’autorité de citation désigne la crédibilité structurelle d’un contenu, évaluée par le nombre et la qualité de ses références à des sources externes reconnues (publications académiques, organismes officiels, médias de référence). Les moteurs IA utilisent ce signal comme proxy de qualité : un contenu qui cite bien a probablement été rédigé avec rigueur.
Enrichissement de l’autorité : Les étudiants prennent un article sans références et l’enrichissent de 5 citations vérifiables (article académique, rapport officiel, donnée statistique). Ils soumettent les deux versions à une interface IA et observent si la réponse change. Le référencement académique est aussi un levier GEO.
N°31/40
Knowledge GraphGraphe de connaissances
Un knowledge graph est une base de connaissances structurée sous forme de réseau d’entités et de relations. Google Knowledge Graph et Wikidata alimentent les LLM en informations factuelles structurées. Une entité présente dans ces graphes avec des propriétés détaillées est reconnue avec plus de confiance par les IA. L’inscription dans Wikidata est une étape stratégique du GEO.
Exploration du Knowledge Graph Google : Les étudiants utilisent l’API Google Knowledge Graph (gratuite) pour chercher une marque ou un auteur. Présente-t-il une fiche structurée ? Quelles propriétés sont renseignées ? Comparaison avec une entité absente. Comment entrer dans le Knowledge Graph ?
N°32/40
Off-site GEOGEO hors-site
Le GEO hors-site désigne la gestion de la présence d’une marque sur les plateformes tierces que les moteurs IA consultent fréquemment : Reddit (46,7 % des sources Perplexity), Quora, LinkedIn, YouTube, forums, presse, articles académiques. Contrairement au SEO centré sur le site propre, le GEO est systématiquement omnicanal.
Mapping off-site d’un concurrent : Les étudiants analysent où un concurrent bien cité par les IA est mentionné hors de son site (Reddit, Quora, LinkedIn, podcasts, presse). Ils cartographient les 5 plateformes à investir en priorité pour une stratégie off-site GEO.
N°33/40
Structured DataDonnées structurées
Les données structurées (Schema.org, JSON-LD) sont des balises machine-lisibles insérées dans le HTML qui décrivent explicitement le type de contenu, ses propriétés et les relations entre entités. Les schemas les plus efficaces pour le GEO : FAQPage, Article/BlogPosting, Person, Organization, HowTo. Bing et Google confirment que leurs LLM utilisent les données structurées.
Implémentation et validation de Schema.org : Les étudiants génèrent avec Claude un JSON-LD complet (Person + BlogPosting + FAQPage), le valident sur schema.org/validator et rich-results.google.com. Le « code » SEO/GEO est accessible sans être développeur.
Mesure & pilotage
N°34/40
Citation RateTaux de citation
Le taux de citation désigne la fréquence à laquelle un contenu ou une marque est cité(e) dans les réponses de moteurs IA sur un corpus de requêtes représentatives. Il s’exprime en pourcentage de réponses incluant une citation. Un contenu bien optimisé peut voir son taux de citation augmenter de 40 % grâce aux techniques GEO (Aggarwal et al., KDD 2024). Outils : Profound, Otterly.ai, Peec AI, Semrush AI, Ahrefs.
Mesure manuelle du taux de citation : Les étudiants soumettent 10 requêtes liées à un sujet sur 3 plateformes (Perplexity, ChatGPT, Gemini), notent les sources citées et calculent le taux de citation de chaque domaine. La méthode manuelle rend concrète ce que les outils payants automatisent.
N°35/40
Cited Domain SharePart de domaine cité
Le cited domain share mesure le pourcentage des citations IA d’un secteur attribuable à un domaine spécifique. C’est une métrique concurrentielle. Les LLM ne citent en moyenne que 2 à 7 domaines par réponse (Profound, 2025), contre 10 liens bleus Google. La concentration est extrême : le winner-takes-most s’applique encore plus en GEO qu’en SEO.
Analyse de concentration GEO : Les étudiants récupèrent 20 réponses Perplexity sur un secteur et comptent les domaines cités. Combien de domaines uniques apparaissent ? Quelle est la distribution ? Est-ce plus concentré que les résultats Google du même secteur ?
N°36/40
Citation DriftDérive des citations
La citation drift (Ansehn Glossary, 2025) désigne le phénomène par lequel les sources citées par les moteurs IA pour une même question changent significativement au fil du temps, même sans modification du contenu. Ce phénomène résulte des mises à jour des modèles et de la variation stochastique inherente aux LLM. Il rend le monitoring continu indispensable.
Expérience de drift en temps réel : Les étudiants posent la même question à Perplexity 5 fois de suite et notent les sources citées à chaque réponse. Varient-elles ? Cette variabilité stochastique illustre pourquoi un seul snapshot ne suffit pas et pourquoi la mesure GEO nécessite des itérations répétées.
N°37/40
AI Visibility ScoreScore de visibilité IA
Le AI Visibility Score est une métrique composite agrégeant fréquence de citation, contexte de la mention (positive, neutre, négative), niveau de détail de la référence et nombre de plateformes IA couvertes. Des outils comme Otterly.ai, Profound et Ahrefs (2025) proposent leurs propres implémentations. Il devient un KPI stratégique que certains CMOs reportent au COMEX.
Construire un dashboard GEO minimal : Les étudiants conçoivent sur Google Sheets un dashboard à 5 indicateurs : taux de citation sur 10 requêtes test, nombre de plateformes couvrant la marque, positivité de la mention (1-5), cited domain share estimé, delta par rapport au mois précédent. Exercice de reporting adapté au budget zéro.
N°38/40
Citation DecayDégradation des citations
La citation decay désigne la perte progressive de citations IA pour un contenu non mis à jour, tandis que des contenus concurrents plus frais sont indexés. La dégradation est rapide dans les domaines à forte vélocité (IA, finance, droit). Des outils comme Frase Content Watchdog (2025) détectent et alertent automatiquement sur la citation decay.
Stratégie anti-decay : Les étudiants identifient les pages de fondation d’un site (les plus citées par les IA) et définissent un protocole de mise à jour préventive : quels éléments actualiser en priorité ? à quelle fréquence selon la volatilité du sujet ? Livrable : planning de maintenance GEO sur 12 mois.
N°39/40
AI Referral TrafficTrafic référent IA
L’AI referral traffic désigne les visites sur un site provenant de clics sur des citations IA dans Perplexity, ChatGPT Search, Copilot ou Google AI Mode. Selon Previsible (2025), ce trafic a augmenté de 527 % sur les 5 premiers mois de 2025 et convertit à 4,4 fois le taux du trafic organique classique car l’IA a déjà pré-qualifié la source.
Analyser le trafic IA dans GA4 : Les étudiants configurent dans Google Analytics 4 un segment de trafic référent filtré sur les domaines IA (perplexity.ai, chat.openai.com, gemini.google.com). Ils comparent les métriques d’engagement avec le trafic organique classique. Si le trafic IA convertit mieux, cela justifie l’investissement GEO.
N°40/40
GEO AuditAudit GEO
Un audit GEO est une évaluation systématique de la visibilité d’un site dans les réponses des moteurs IA. Il couvre : (1) benchmark de citation rate, (2) analyse de chunkability, (3) audit E-E-A-T, (4) données structurées, (5) couverture thématique vs topic cluster, (6) empreinte off-site, (7) freshness des contenus stratégiques. C’est l’équivalent GEO de l’audit SEO technique.
Projet fil rouge : l’audit GEO complet : Sur 4 semaines, les étudiants réalisent un audit GEO d’un site réel en 7 volets. Semaine 1 : citation benchmark. Semaine 2 : audit contenu (chunkability, densité, E-E-A-T). Semaine 3 : données structurées et technique. Semaine 4 : empreinte off-site + recommandations priorisées. Livrable : rapport GEO de 15 pages avec roadmap 6 mois.
Ce que ces 40 concepts ont en commun
Le GEO repose sur une logique radicalement différente du SEO : l’unité d’optimisation n’est plus la page mais le chunk ; la métrique de succès n’est plus le rang mais le taux de citation ; la cible n’est plus le crawler de Google mais le système RAG qui alimente ChatGPT, Perplexity ou Gemini. Comprendre ces 40 concepts permet d’aborder le marketing digital de 2025 avec les bons outils conceptuels.
Ressource complémentaire : la Table Périodique interactive de l’IA & du Management propose une vision visuelle des 50 concepts clés de l’IA générative dans un format cliquable.
Références clés : Aggarwal et al. (2024), GEO: Generative Engine Optimization, KDD ’24 — Go Fish Digital (2025) — Frase.io (2025) — Searchable Glossary (2025) — Discovered Labs (2025) — Wikipedia GEO (2025).
Référentiel rapide
40 concepts × 40 exercices — tableau de bord pédagogique
Vue synthétique de l’ensemble des concepts et de leurs exercices associés. À utiliser comme feuille de route pour un cours de 6 à 8 séances sur le GEO.