Glossaire académique · GEO · Sémantique IA · Marketing Digital · Édition 2025

40 concepts clés du GEO — Generative Engine Optimization

Guide complet des notions fondamentales du GEO : de l’architecture RAG au chunking sémantique, du share of model aux métriques de citation. Pour chaque concept : une définition académique rigoureuse et une idée pédagogique concrète pour l’enseignement du marketing digital.

Par Maria Mercanti-Guérin — Maître de Conférences HDR, IAE Paris-Sorbonne · Mis à jour : avril 2025 · Réf. : Aggarwal et al., KDD 2024 · Wikipedia GEO 2025 · Go Fish Digital 2025

FND

Fondements du GEO

N°01/40

GEOGenerative Engine Optimization

Définition

Le GEO (Aggarwal et al., KDD 2024) est la pratique d’optimiser contenus et présence en ligne pour être cité, référencé ou recommandé dans les réponses générées par les moteurs IA (ChatGPT, Perplexity, Gemini, Copilot, Claude). Contrairement au SEO qui optimise pour le rang dans un SERP, le GEO optimise pour la citation dans une réponse synthétisée — même sans clic vers le site. Selon Gartner, 25 % des recherches passeront par des moteurs génératifs d’ici 2028.

Idée pédagogique

Audit de visibilité IA : Les étudiants tapent la même question sur Google, Perplexity et ChatGPT. Ils comparent les sources citées dans chaque interface. Qui est visible en SEO mais invisible en GEO ? Qui est cité par l’IA sans être en page 1 Google ? L’expérience démontre que ranking et citation sont deux logiques distinctes.

N°02/40

AEOAnswer Engine Optimization

Définition

L’AEO (Answer Engine Optimization) est le terme concurrent de GEO, privilégié notamment par Profound. AEO insiste sur la dimension réponse : l’objectif est d’être la source qu’un moteur IA sélectionne pour répondre directement à une question. D’autres termes coexistent : LLMO, AI Search Optimization, AI Visibility Optimization.

Idée pédagogique

Battle terminologique : Les étudiants cherchent GEO, AEO et LLMO dans Perplexity et ChatGPT. Quelles définitions ces IA donnent-elles ? L’exercice illustre que le GEO est lui-même un sujet à optimiser en GEO.

N°03/40

Zero-clickRecherche zéro clic

Définition

Une interaction zero-click se produit quand l’utilisateur obtient une réponse complète directement dans l’interface IA, sans jamais visiter un site web. Le GEO cible ce contexte post-click : la métrique de succès n’est plus le trafic vers le site, mais la mention et l’association de la marque à un domaine d’expertise dans l’esprit de l’utilisateur.

Idée pédagogique

Calcul de la valeur zéro-clic : Les étudiants évaluent la valeur d’une citation IA sans clic : notôriété de marque, préscription implicite, influence sur la décision d’achat. Quel % du funnel se joue désormais dans ChatGPT avant toute visite de site ?

N°04/40

Share of ModelPart de modèle

Définition

Le share of model (ou AI Share of Voice) désigne le pourcentage de réponses IA — sur un corpus de requêtes représentatives d’un marché — qui citent ou recommandent une marque donnée. C’est la métrique centrale du GEO, équivalent du share of voice en publicité traditionnelle. Mesuré par des outils comme Profound, Otterly.ai, Peec AI ou Semrush AI.

Idée pédagogique

Mesure manuelle du share of model : Chaque étudiant choisit un secteur et soumet 10 requêtes représentatives à ChatGPT et Perplexity, note les marques citées, et calcule le share of model de chaque acteur. Les leaders GEO sont-ils les mêmes que les leaders SEO ?

N°05/40

Answer-firstFormat réponse-d’abord

Définition

Le format answer-first structure le contenu en plaçant la réponse directe à une question dès le premier paragraphe, avant tout développement. Les moteurs IA extraient préférentiellement les passages autonomes qui répondent directement à une question sans nécessiter le reste de la page. Ce format s’oppose à la structure journalistique classique (accroche-développement-conclusion).

Idée pédagogique

Réécriture answer-first : Les étudiants prennent un extrait journalistique (300 mots) et le réécrivent en format answer-first. Ils soumettent les deux versions à Claude en demandant lequel serait plus susceptible d’être cité. L’IA devient le juge de sa propre préférence.

N°06/40

GEO vs SEODifférences structurelles

Définition

Le SEO optimise au niveau de la page (rang dans le SERP, taux de clic, densité de mots-clés). Le GEO optimise au niveau du passage : un moteur IA peut citer un unique paragraphe de 60 mots d’un article de 3 000 mots en ignorant le reste. L’unité d’optimisation n’est plus la page mais le chunk autonome. Les mots-clés sont remplacés par les entités et les assertions vérifiables.

Idée pédagogique

Tableau comparatif SEO vs GEO : Les étudiants construisent un tableau à 8 entrées (unité d’optimisation, métrique de succès, format de contenu, rôle des liens, rôle de la fraîcheur, plateformes cibles, outils de mesure, horizon de temps) et déduisent quand appliquer l’un, l’autre, ou les deux.

N°07/40

LLMOLarge Language Model Optimization

Définition

Le LLMO est une variante terminologique du GEO mettant l’accent sur l’optimisation pour les LLM spécifiquement. Le LLMO intègre la dimension synthèse : les LLM puissants génèrent de nouvelles formulations en combinant plusieurs sources. L’objectif est d’influencer cette synthèse, pas seulement d’être présent dans les sources.

Idée pédagogique

Expérience de synthèse : Les étudiants fournissent à Claude trois sources contradictoires (une faible, une moyenne, une excellente) et observent comment il pondère et synthétise. Quel poids à la source la mieux structurée ? Quel poids aux chiffres cités ?

N°08/40

AI CrawlExploration IA

Définition

L’AI crawl est le processus par lequel les moteurs IA explorent et indexent les pages web : le robot télécharge le HTML brut, élimine le balisage superflu, tokenise chaque phrase, puis construit des vecteurs d’embeddings. Un balisage client-side JavaScript retarde ou empêche l’indexation IA. Le fichier robots.txt et les balises meta robots conditionnent l’accès des crawlers IA.

Idée pédagogique

Audit d’accessibilité IA : Les étudiants utilisent le mode « lecture » du navigateur sur une page web pour simuler ce qu’un crawler IA extrait. Ce résidu de texte brut est exactement ce qu’un LLM traite. Exercice révélateur pour comprendre pourquoi la hiérarchie HTML compte.

TECH

Architecture technique

N°09/40

RAGRetrieval-Augmented Generation

Définition

Le RAG (Lewis et al., 2020) est l’architecture qui détermine quelles sources sont citées dans les réponses IA. Quand un utilisateur pose une question à Perplexity ou ChatGPT Search, le système : (1) convertit la question en vecteur d’embedding, (2) retrouve les passages les plus proches (cosine similarity), (3) injecte ces passages dans le contexte du LLM. Le GEO vise précisément à optimiser le contenu pour l’étape 2.

Idée pédagogique

Construire un mini-RAG en 2 heures : Les étudiants utilisent NotebookLM (Google, gratuit) pour créer un RAG sur leurs propres notes de cours. Ils testent des questions et observent quels passages sont récupérés. L’expérience rend tangible pourquoi un passage bien structuré est récupéré plutôt qu’un autre moins clair.

N°10/40

Query Fan-outDécomposition de requête

Définition

Le query fan-out (Go Fish Digital, 2025) désigne le processus par lequel un moteur IA décompose une requête utilisateur en dizaines de sous-requêtes liées. Exemple : « Meilleur CRM pour startup » génère automatiquement les sous-requêtes « tarifs CRM startup », « fonctionnalités CRM », « intégrations CRM ». Un contenu doit couvrir cet écosystème de sous-requêtes.

Idée pédagogique

Cartographier le fan-out d’une requête : Les étudiants choisissent une requête métier et demandent à Claude de générer les 20 sous-requêtes qu’un LLM pourrait utiliser pour y répondre. Ce travail devient leur plan de contenu GEO pour les 6 prochains mois.

N°11/40

Passage RetrievalExtraction de passages

Définition

Le passage retrieval est la capacité d’un système IA à extraire et évaluer des passages spécifiques à l’intérieur d’une page, indépendamment du rang global. Un paragraphe de page 3 peut être cité devant l’ensemble d’une page 1. Les passages qui perdent leur sens hors contexte (« comme mentionné précédemment ») sont systématiquement défavorisés.

Idée pédagogique

Test d’autonomie des passages : Les étudiants prennent un article et lisent chaque paragraphe en isolation. Combien sont compréhensibles seuls ? Le « test d’autonomie » : seuls les passages autonomes sont récupérés par les IA. Ils réécrivent les passages échec.

N°12/40

EmbeddingVecteur sémantique

Définition

Un embedding est une représentation numérique dense d’un texte dans un espace vectoriel de haute dimension (768 à 3 072 dimensions). Les moteurs IA ne font pas de matching par mots-clés mais par proximité vectorielle : un contenu sur « optimisation pour moteurs génératifs » peut apparaître pour la requête « GEO » même sans contenir ce sigle.

Idée pédagogique

Visualisation des embeddings : Sur projector.tensorflow.org (gratuit), les étudiants visualisent en 3D comment des concepts proches se regroupent dans l’espace vectoriel. Exercice pratique : tester si leur article est plus proche sémantiquement de la requête cible que les articles concurrents.

N°13/40

Cosine SimilaritySimilarité cosinus

Définition

La similarité cosinus est la mesure mathématique utilisée par les systèmes RAG pour évaluer la proximité entre le vecteur d’une requête et le vecteur d’un passage candidat. Un score de 1.0 indique une identité parfaite, 0 une absence de relation. La couverture exhaustive des champs sémantiques d’un sujet augmente la probabilité d’être sélectionné.

Idée pédagogique

Course à la similarité : Les étudiants écrivent deux paragraphes définitoires (un riche en termes variés du même champ sémantique, un avec répétition de mots-clés). Lequel l’IA récupère-t-elle en priorité ? Résultat habituel : la richesse sémantique bat la densité de mots-clés.

N°14/40

Context WindowFenêtre de contexte

Définition

La fenêtre de contexte est la quantité maximale de texte (en tokens) qu’un LLM peut traiter en une seule fois. Claude 3.5 dispose de 200 000 tokens ; GPT-4o de 128 000. Dans un système RAG, seuls les passages sélectionnés sont injectés dans cette fenêtre. Un contenu verbeux ou répétitif consomme inutilement le budget de tokens disponible.

Idée pédagogique

Calculer son token budget : Les étudiants utilisent le tokenizer d’OpenAI pour compter les tokens d’un article. Combien de tels articles tiennent dans la fenêtre de contexte de Claude ? Combien de sources concurrentes l’IA peut-elle comparer simultanément ? Cet exercice rend concrète la compétition pour l’espace de contexte.

N°15/40

Freshness ScoreSignal de fraîcheur

Définition

Le freshness score est la pondération accordée par les moteurs IA à la récence d’un contenu. Frase (2025) rapporte que les URLs citées par les IA sont en moyenne 25,7 % plus récentes que les résultats SEO traditionnels. Perplexity privilégie les articles des 90 derniers jours. Chaque mise à jour avec de nouvelles données réactive la fraîcheur d’une page.

Idée pédagogique

Stratégie de fraîcheur : Les étudiants analysent 3 articles sur un même sujet (vieux, récent, vieux mais mis à jour régulièrement). Ils demandent à Perplexity lequel est cité. Résultat à discuter : la mise à jour régulière bat souvent la création d’un nouvel article.

N°16/40

RerankingRéordonnancement des sources

Définition

Le reranking est l’étape post-retrieval où un second modèle évalue la pertinence, l’autorité et la cohérence des passages récupérés pour sélectionner les meilleurs à injecter dans le contexte du LLM. Les sources de confiance établies (Wikipedia, presses universitaires) sont scored plus légèrement. Pour le contenu de marque sur le web public, il faut franchir des filtres stricts.

Idée pédagogique

Analyse de la hiérarchie de crédibilité : Les étudiants classent les sources citées par ChatGPT sur un sujet (académique, presse, blog corporate, forum, Wikipedia). Ils analysent la proportion de chaque type. Pourquoi Wikipedia est-il surreprésenté (47,9 % des sources selon des études) ?

CONT

Optimisation du contenu

N°17/40

ChunkBloc de contenu autonome

Définition

Un chunk est une unité de contenu autonome et auto-suffisante que les systèmes RAG peuvent indexer, récupérer et citer indépendamment. Chaque chunk devrait : (1) répondre à une question spécifique, (2) se comprendre sans contexte extérieur, (3) contenir toutes les informations clés en 60 à 200 mots. Un moteur IA extrait un chunk, pas une page entier.

Idée pédagogique

Atelier de chunking manuel : Les étudiants prennent un article de 2 000 mots et le découpent en chunks optimaux (50-200 mots, autonomes, chacun répondant à une sous-question). Ils soumettent les chunks candidats à Claude pour évaluation. Exercice concret de micro-optimisation GEO.

N°18/40

Semantic ChunkingChunking sémantique

Définition

Le semantic chunking (Ansehn Glossary, 2025) découpe le contenu par unité de sens (en suivant les titres H2/H3) plutôt que par longueur fixe. Il s’oppose au chunking mécanique (couper tous les 512 tokens). Chaque chunk sémantique couvre exactement un concept : ne pas mélanger définition et instructions dans le même bloc.

Idée pédagogique

Chunking mécanique vs sémantique : Les étudiants prennent un article et l’appliquent avec deux stratégies (coupures à 500 tokens vs coupures aux titres H2/H3). Ils comparent : lesquels sont autonomes ? Lesquels coupent une idée au milieu ? La structure H2/H3 est une décision d’architecture GEO.

N°19/40

ChunkabilitySegmentabilité

Définition

La chunkability (Searchable, 2025) désigne la facilité avec laquelle un contenu peut être décomposé en blocs autonomes. Un contenu à forte chunkability a des titres descriptifs (pas créatifs), des paragraphes courts et autonomes, des définitions explicites en début de section. Un contenu narratif et fluide — excellent pour la lecture humaine — est souvent invisible pour les IA.

Idée pédagogique

Score de chunkability : Les étudiants élaborent une grille à 6 critères (titre descriptif, paragraphe autonome, définition présente, chiffre avec source, longueur optimale, absence de référence croisée). Ils scorent 3 pages concurrentes (/6). L’outil devient réutilisable pour auditer n’importe quel contenu GEO.

N°20/40

Entity DensityDensité d’entités

Définition

La densité d’entités mesure la concentration de concepts nommés et reconnaissables (personnes, marques, lieux, produits, termes techniques) dans un contenu. Les moteurs IA favorisent les contenus avec des entités précises et cohérentes plutôt que des formulations vagues (« notre solution », « les experts »). Nommer explicitement augmente la pertinence vectorielle.

Idée pédagogique

Chasse aux entités floues : Les étudiants surlignent dans un article toutes les références vagues (« certains experts », « une étude récente ») et les remplacent par les entités précises (nom, date, organisation). Avant/après : l’article devient beaucoup plus solide pour un crawleur IA.

N°21/40

Semantic DensityDensité sémantique

Définition

La densité sémantique (Ansehn Glossary, 2025) mesure la richesse conceptuelle d’un bloc de contenu : le nombre de concepts, faits, chiffres et relations pertinents par rapport à la longueur du texte. Frase recommande un ratio de 150 à 200 mots par statistique avec source. La densité sémantique est une métrique distincte de la longueur : un texte court et dense bat un texte long et creux.

Idée pédagogique

Mesure de la densité sémantique : Les étudiants comptent dans un article de 1 000 mots : faits chiffrés avec source, définitions, exemples concrets, références nommées. Ils calculent le score de densité et comparent 3 articles concurrents. L’article le plus dense est-il celui que Perplexity cite en priorité ?

N°22/40

Topical AuthorityAutorité thématique

Définition

L’autorité thématique désigne la profondeur et la complétude de la couverture d’un domaine sur un site. Les moteurs IA évaluent si un site couvre exhaustivement les sujets adjacents, les définitions, les comparaisons, les cas d’usage et les questions fréquentes d’un domaine. Un LLM a besoin de trouver plusieurs preuves de l’expertise sur l’ensemble d’un cluster thématique, pas une seule page isolée.

Idée pédagogique

Audit de coverage thématique : Les étudiants cartographient les sous-thèmes que couvre un concurrent bien cité par les IA vs un site peu cité. Ils identifient les white spaces (sous-thèmes non couverts) et construisent un plan de contenu pour combler les écarts. Base d’un audit GEO concurrentiel.

N°23/40

Topic ClusterGrappe thématique

Définition

Un topic cluster est une architecture de contenu composée d’une page pilier et de pages satellites interconnectées par des liens internes. Pour le GEO, cette architecture signale à l’IA que le site est une référence exhaustive sur un domaine. Le query fan-out d’une seule question peut nécessiter des réponses issues de plusieurs pages du même cluster.

Idée pédagogique

Design d’un topic cluster GEO : Les étudiants choisissent un sujet et dessinent l’architecture complète : page pilier centrale + 10 pages satellites + liens internes. Ils cartographient comment le fan-out d’une requête utilisateur traverse plusieurs pages du cluster. Livrable : architecture avec intentions de recherche par page.

N°24/40

FAQPage SchemaBalisage Q&R structuré

Définition

Le FAQPage Schema est un balisage JSON-LD de type Schema.org qui marque les paires question-réponse d’une page de façon machine-lisible. Les moteurs IA peuvent extraire directement ces Q&R sans analyser le reste de la page HTML. Chaque Q&R est un chunk autonome pré-structuré, immédiatement exploitable par un système RAG. Bing et Google confirment utiliser les données structurées dans leurs LLM.

Idée pédagogique

Générer et valider un FAQPage Schema : Les étudiants identifient 8 questions clés sur un sujet, rédigent les réponses en format answer-first (50-100 mots), génèrent le JSON-LD avec Claude, et le valident sur schema.org/validator. Exercice concret qui produit un livrable directement intégrable dans WordPress.

N°25/40

BurstinessVariété structurelle

Définition

La burstiness (Optimizely, 2025) désigne la variation de longueur, de structure et de complexité des phrases au sein d’un texte. L’écriture humaine présente une forte burstiness (alternance de phrases courtes et longues) alors que les textes IA-générés sont souvent homogènes. Un texte trop uniforme peut être détecté comme généré et pondéré plus faiblement dans les filtres de crédibilité.

Idée pédagogique

Diagnostic burstiness : Les étudiants analysent un article IA-généré et un article humain sur le même sujet. Ils mesurent la longueur moyenne des phrases et l’écart-type. L’article IA a généralement un écart-type plus faible. Discussion sur comment éditer un contenu IA pour restaurer la burstiness.

AUTH

Autorité & confiance

N°26/40

E-E-A-TExperience, Expertise, Authoritativeness, Trustworthiness

Définition

E-E-A-T (Google Search Quality Rater Guidelines, 2024) est le cadre d’évaluation de la qualité de contenu utilisé par Google et adopté comme signal de confiance par les moteurs IA. Experience : expérience directe du sujet. Expertise : compétences reconnaissables. Authoritativeness : citations par des sources tierces. Trustworthiness : information vérifiable et transparente. Les bios d’auteurs détaillées et les citations académiques signalent l’E-E-A-T.

Idée pédagogique

Audit E-E-A-T d’une page : Les étudiants évaluent 3 pages concurrentes sur une grille E-E-A-T (4 critères × 3 niveaux) puis refont l’audit en demandant à Claude d’évaluer les mêmes pages. Les scores concordent-ils ? Discussion sur les signaux de confiance machine vs humain.

N°27/40

GroundingAncrage factuel

Définition

Le grounding désigne le fait qu’une réponse IA est ancrée dans des sources vérifiables. Pour le GEO, le contenu doit être « groundable » : chaque assertion doit pouvoir être vérifiée par une source tierce. Les contenus non groundables (opinions non attribuées, chiffres sans source, affirmations absolues sans preuve) sont défavorisés dans la sélection des sources par les moteurs IA.

Idée pédagogique

Grounding score : Les étudiants comptent, dans un article, le pourcentage d’assertions factuelles attribuées à une source explicite. Ratio : assertions attribuées / total assertions factuelles. Un grounding score > 70 % caractérise les contenus que les IA préfèrent citer.

N°28/40

Consensus BuildingConstruction du consensus inter-sources

Définition

Le consensus building (Discovered Labs, 2025) désigne le principe selon lequel les systèmes IA privilégient les affirmations qui apparaissent de façon concordante dans plusieurs sources indépendantes. Une affirmation soutenue par une seule source est pondérée moins fortement qu’une affirmation confirmée par trois sources indépendantes. Une stratégie GEO doit être omnicanale : site propre + mentions dans des sources tierces.

Idée pédagogique

Analyse du consensus IA : Pour un fait donné (« 63 % des sites reçoivent du trafic IA »), les étudiants cherchent combien de sources indépendantes le reprennent et comment ChatGPT le présente. Comparaison avec un chiffre issu d’une seule source. Discussion sur la stratégie de diffusion de données propriétaires pour créer du consensus.

N°29/40

Entity FootprintEmpreinte d’entité

Définition

L’entity footprint désigne l’ensemble de la présence numérique d’une entité à travers les sources que les IA consultent : site web, Wikipedia, Google Knowledge Panel, profils réseaux sociaux, citations académiques, avis, forums, podcasts. Plus l’empreinte est large et cohérente, plus l’IA fait confiance à l’entité. Une entité absente des sources tierces est difficile à citer avec confiance.

Idée pédagogique

Audit d’empreinte d’entité : Les étudiants tapent le nom d’un expert dans ChatGPT et observent les informations spontanément produites. Puis ils vérifient l’empreinte : Wikipedia ? HAL ? Google Scholar ? Presse ? Chaque absence est un point faible à combler.

N°30/40

Citation AuthorityAutorité de citation

Définition

L’autorité de citation désigne la crédibilité structurelle d’un contenu, évaluée par le nombre et la qualité de ses références à des sources externes reconnues (publications académiques, organismes officiels, médias de référence). Les moteurs IA utilisent ce signal comme proxy de qualité : un contenu qui cite bien a probablement été rédigé avec rigueur.

Idée pédagogique

Enrichissement de l’autorité : Les étudiants prennent un article sans références et l’enrichissent de 5 citations vérifiables (article académique, rapport officiel, donnée statistique). Ils soumettent les deux versions à une interface IA et observent si la réponse change. Le référencement académique est aussi un levier GEO.

N°31/40

Knowledge GraphGraphe de connaissances

Définition

Un knowledge graph est une base de connaissances structurée sous forme de réseau d’entités et de relations. Google Knowledge Graph et Wikidata alimentent les LLM en informations factuelles structurées. Une entité présente dans ces graphes avec des propriétés détaillées est reconnue avec plus de confiance par les IA. L’inscription dans Wikidata est une étape stratégique du GEO.

Idée pédagogique

Exploration du Knowledge Graph Google : Les étudiants utilisent l’API Google Knowledge Graph (gratuite) pour chercher une marque ou un auteur. Présente-t-il une fiche structurée ? Quelles propriétés sont renseignées ? Comparaison avec une entité absente. Comment entrer dans le Knowledge Graph ?

N°32/40

Off-site GEOGEO hors-site

Définition

Le GEO hors-site désigne la gestion de la présence d’une marque sur les plateformes tierces que les moteurs IA consultent fréquemment : Reddit (46,7 % des sources Perplexity), Quora, LinkedIn, YouTube, forums, presse, articles académiques. Contrairement au SEO centré sur le site propre, le GEO est systématiquement omnicanal.

Idée pédagogique

Mapping off-site d’un concurrent : Les étudiants analysent où un concurrent bien cité par les IA est mentionné hors de son site (Reddit, Quora, LinkedIn, podcasts, presse). Ils cartographient les 5 plateformes à investir en priorité pour une stratégie off-site GEO.

N°33/40

Structured DataDonnées structurées

Définition

Les données structurées (Schema.org, JSON-LD) sont des balises machine-lisibles insérées dans le HTML qui décrivent explicitement le type de contenu, ses propriétés et les relations entre entités. Les schemas les plus efficaces pour le GEO : FAQPage, Article/BlogPosting, Person, Organization, HowTo. Bing et Google confirment que leurs LLM utilisent les données structurées.

Idée pédagogique

Implémentation et validation de Schema.org : Les étudiants génèrent avec Claude un JSON-LD complet (Person + BlogPosting + FAQPage), le valident sur schema.org/validator et rich-results.google.com. Le « code » SEO/GEO est accessible sans être développeur.

KPI

Mesure & pilotage

N°34/40

Citation RateTaux de citation

Définition

Le taux de citation désigne la fréquence à laquelle un contenu ou une marque est cité(e) dans les réponses de moteurs IA sur un corpus de requêtes représentatives. Il s’exprime en pourcentage de réponses incluant une citation. Un contenu bien optimisé peut voir son taux de citation augmenter de 40 % grâce aux techniques GEO (Aggarwal et al., KDD 2024). Outils : Profound, Otterly.ai, Peec AI, Semrush AI, Ahrefs.

Idée pédagogique

Mesure manuelle du taux de citation : Les étudiants soumettent 10 requêtes liées à un sujet sur 3 plateformes (Perplexity, ChatGPT, Gemini), notent les sources citées et calculent le taux de citation de chaque domaine. La méthode manuelle rend concrète ce que les outils payants automatisent.

N°35/40

Cited Domain SharePart de domaine cité

Définition

Le cited domain share mesure le pourcentage des citations IA d’un secteur attribuable à un domaine spécifique. C’est une métrique concurrentielle. Les LLM ne citent en moyenne que 2 à 7 domaines par réponse (Profound, 2025), contre 10 liens bleus Google. La concentration est extrême : le winner-takes-most s’applique encore plus en GEO qu’en SEO.

Idée pédagogique

Analyse de concentration GEO : Les étudiants récupèrent 20 réponses Perplexity sur un secteur et comptent les domaines cités. Combien de domaines uniques apparaissent ? Quelle est la distribution ? Est-ce plus concentré que les résultats Google du même secteur ?

N°36/40

Citation DriftDérive des citations

Définition

La citation drift (Ansehn Glossary, 2025) désigne le phénomène par lequel les sources citées par les moteurs IA pour une même question changent significativement au fil du temps, même sans modification du contenu. Ce phénomène résulte des mises à jour des modèles et de la variation stochastique inherente aux LLM. Il rend le monitoring continu indispensable.

Idée pédagogique

Expérience de drift en temps réel : Les étudiants posent la même question à Perplexity 5 fois de suite et notent les sources citées à chaque réponse. Varient-elles ? Cette variabilité stochastique illustre pourquoi un seul snapshot ne suffit pas et pourquoi la mesure GEO nécessite des itérations répétées.

N°37/40

AI Visibility ScoreScore de visibilité IA

Définition

Le AI Visibility Score est une métrique composite agrégeant fréquence de citation, contexte de la mention (positive, neutre, négative), niveau de détail de la référence et nombre de plateformes IA couvertes. Des outils comme Otterly.ai, Profound et Ahrefs (2025) proposent leurs propres implémentations. Il devient un KPI stratégique que certains CMOs reportent au COMEX.

Idée pédagogique

Construire un dashboard GEO minimal : Les étudiants conçoivent sur Google Sheets un dashboard à 5 indicateurs : taux de citation sur 10 requêtes test, nombre de plateformes couvrant la marque, positivité de la mention (1-5), cited domain share estimé, delta par rapport au mois précédent. Exercice de reporting adapté au budget zéro.

N°38/40

Citation DecayDégradation des citations

Définition

La citation decay désigne la perte progressive de citations IA pour un contenu non mis à jour, tandis que des contenus concurrents plus frais sont indexés. La dégradation est rapide dans les domaines à forte vélocité (IA, finance, droit). Des outils comme Frase Content Watchdog (2025) détectent et alertent automatiquement sur la citation decay.

Idée pédagogique

Stratégie anti-decay : Les étudiants identifient les pages de fondation d’un site (les plus citées par les IA) et définissent un protocole de mise à jour préventive : quels éléments actualiser en priorité ? à quelle fréquence selon la volatilité du sujet ? Livrable : planning de maintenance GEO sur 12 mois.

N°39/40

AI Referral TrafficTrafic référent IA

Définition

L’AI referral traffic désigne les visites sur un site provenant de clics sur des citations IA dans Perplexity, ChatGPT Search, Copilot ou Google AI Mode. Selon Previsible (2025), ce trafic a augmenté de 527 % sur les 5 premiers mois de 2025 et convertit à 4,4 fois le taux du trafic organique classique car l’IA a déjà pré-qualifié la source.

Idée pédagogique

Analyser le trafic IA dans GA4 : Les étudiants configurent dans Google Analytics 4 un segment de trafic référent filtré sur les domaines IA (perplexity.ai, chat.openai.com, gemini.google.com). Ils comparent les métriques d’engagement avec le trafic organique classique. Si le trafic IA convertit mieux, cela justifie l’investissement GEO.

N°40/40

GEO AuditAudit GEO

Définition

Un audit GEO est une évaluation systématique de la visibilité d’un site dans les réponses des moteurs IA. Il couvre : (1) benchmark de citation rate, (2) analyse de chunkability, (3) audit E-E-A-T, (4) données structurées, (5) couverture thématique vs topic cluster, (6) empreinte off-site, (7) freshness des contenus stratégiques. C’est l’équivalent GEO de l’audit SEO technique.

Idée pédagogique

Projet fil rouge : l’audit GEO complet : Sur 4 semaines, les étudiants réalisent un audit GEO d’un site réel en 7 volets. Semaine 1 : citation benchmark. Semaine 2 : audit contenu (chunkability, densité, E-E-A-T). Semaine 3 : données structurées et technique. Semaine 4 : empreinte off-site + recommandations priorisées. Livrable : rapport GEO de 15 pages avec roadmap 6 mois.

Ce que ces 40 concepts ont en commun

Le GEO repose sur une logique radicalement différente du SEO : l’unité d’optimisation n’est plus la page mais le chunk ; la métrique de succès n’est plus le rang mais le taux de citation ; la cible n’est plus le crawler de Google mais le système RAG qui alimente ChatGPT, Perplexity ou Gemini. Comprendre ces 40 concepts permet d’aborder le marketing digital de 2025 avec les bons outils conceptuels.

Ressource complémentaire : la Table Périodique interactive de l’IA & du Management propose une vision visuelle des 50 concepts clés de l’IA générative dans un format cliquable.

Références clés : Aggarwal et al. (2024), GEO: Generative Engine Optimization, KDD ’24 — Go Fish Digital (2025) — Frase.io (2025) — Searchable Glossary (2025) — Discovered Labs (2025) — Wikipedia GEO (2025).

Référentiel rapide

40 concepts × 40 exercices — tableau de bord pédagogique

Vue synthétique de l’ensemble des concepts et de leurs exercices associés. À utiliser comme feuille de route pour un cours de 6 à 8 séances sur le GEO.

FND
Fondements du GEO
GEO
Audit de visibilité IA : même question sur Google, Perplexity, ChatGPT — comparer qui est visible où.
AEO
Battle terminologique : chercher GEO, AEO, LLMO dans plusieurs IA et comparer les définitions obtenues.
Zero-click
Calcul de valeur zéro-clic : évaluer la notôriété générée par une citation IA sans clic.
Share of Model
Mesure manuelle : 10 requêtes sur un secteur, noter les marques citées, calculer le share.
Answer-first
Réécriture : un extrait journalistique réécrit en format réponse-d’abord, soumis à l’IA pour verdict.
GEO vs SEO
Tableau comparatif : 8 entrées — unité d’optimisation, métrique, plateformes, outils…
LLMO
Expérience de synthèse : 3 sources de qualité variable — observer la pondération du LLM.
AI Crawl
Mode lecture du navigateur : simuler ce qu’un crawler IA extrait sans CSS ni médias.
TECH
Architecture technique
RAG
Mini-RAG NotebookLM : créer un RAG sur ses propres notes — comparer LLM généraliste vs RAG ancré.
Query Fan-out
Cartographier le fan-out : générer les 20 sous-requêtes d’une question métier — plan de contenu GEO.
Passage Retrieval
Test d’autonomie : lire chaque paragraphe hors contexte — se comprend-il seul ?
Embedding
Embedding Projector : visualiser en 3D la proximité sémantique de concepts sur projector.tensorflow.org.
Cosine Similarity
Course à la similarité : deux paragraphes (riche vs dense en mots-clés) — lequel est préféré par l’IA ?
Context Window
Token budget : compter les tokens d’un article — combien de sources tiennent dans la fenêtre ?
Freshness Score
Comparatif fraîcheur : 3 articles (vieux, récent, vieux mais mis à jour) — lequel Perplexity cite-t-il ?
Reranking
Hiérarchie de crédibilité : classer les sources citées par ChatGPT par type et analyser la distribution.
CONT
Optimisation du contenu
Chunk
Atelier de chunking : découper un article de 2 000 mots en chunks optimaux (50-200 mots).
Semantic Chunking
Mécanique vs sémantique : chunking à 500 tokens vs aux titres H2/H3 — comparer les résultats.
Chunkability
Grille 6 critères : scorer 3 pages concurrentes, identifier les forces et faiblesses GEO.
Entity Density
Chasse aux entités floues : remplacer « certains experts » par les noms, sources, dates précis.
Semantic Density
Score de densité : compter faits chiffrés + définitions sur 1 000 mots — corréler avec les citations IA.
Topical Authority
Audit de coverage : cartographier les sous-thèmes couverts vs white spaces non exploités.
Topic Cluster
Design d’un cluster : page pilier + 10 satellites + intentions de recherche par page.
FAQPage Schema
Générer et valider : JSON-LD avec Claude, validation sur schema.org/validator et rich-results.google.com.
Burstiness
Diagnostic : mesurer l’écart-type de longueur de phrases — article IA vs article humain sur le même sujet.
AUTH
Autorité & confiance
E-E-A-T
Grille E-E-A-T : évaluer 3 pages concurrentes et comparer avec l’évaluation de Claude.
Grounding
Grounding score : compter les assertions factuelles attribuées vs non attribuées (cible > 70 %).
Consensus Building
Diffusion d’un chiffre propriétaire : combien de sources indépendantes doivent le reprendre pour créer du consensus ?
Entity Footprint
Audit d’empreinte : taper un nom dans ChatGPT — quelle empreinte l’IA produit-elle spontanément ?
Citation Authority
Enrichissement : ajouter 5 citations vérifiables à un article nu — observer l’effet sur les réponses IA.
Knowledge Graph
API Knowledge Graph : chercher une marque — est-elle structurée ? Quelles propriétés ?
Off-site GEO
Mapping off-site : cartographier les 5 plateformes prioritaires pour un concurrent bien cité.
Structured Data
Person + BlogPosting + FAQPage : générer avec Claude, valider sur rich-results.google.com.
KPI
Mesure & pilotage
Citation Rate
Mesure manuelle : 10 requêtes × 3 plateformes — noter les sources et calculer les taux.
Cited Domain Share
Analyse de concentration : 20 réponses Perplexity — distribution des domaines cités.
Citation Drift
Même question × 5 : poser la même question 5 fois à Perplexity — les sources varient-elles ?
AI Visibility Score
Dashboard Google Sheets : 5 KPI mesurables — taux de citation, plateformes, positivité, share, delta.
Citation Decay
Planning anti-decay : identifier les pages de fondation et définir le protocole de mise à jour préventive.
AI Referral Traffic
Segment GA4 : configurer le trafic référent IA — comparer l’engagement avec l’organique.
GEO Audit
Projet fil rouge 4 semaines : audit complet en 7 volets — livrable rapport 15 pages + roadmap 6 mois.