Le 28 avril 2026, CB News annonçait que Matriochka Influences lançait Matr·IA·chka, présentée comme « la première offre RP française packagée pour la visibilité des marques dans les modèles génératifs » (CB News, 28 avril 2026). L’annonce a circulé en quarante-huit heures dans les cercles communication et marketing parisiens. Plusieurs DirCom d’ETI ont reçu la newsletter dans la matinée, l’ont transférée à leur agence historique, et ont posé la même question : « Pourquoi pas nous ? ». La réponse est que la question est mal posée.
L’offre est intelligente sur le plan commercial. Elle est ambiguë sur le plan méthodologique. Une agence de relations presse propose, en repackageant son métier historique, de produire de la « visibilité dans les LLM ». La promesse repose sur une hypothèse implicite : ce qui rend une marque citable par ChatGPT, Claude, Gemini ou Perplexity, ce serait la couverture médiatique. C’est une hypothèse partiellement vraie, et largement insuffisante. Et elle confond deux mécaniques que tout praticien sérieux du GEO distingue méthodiquement.
Ce que les RP font réellement, ce que les LLM lisent réellement
Acheter un billet de train pour aller à un concert n’est pas la même chose qu’être sur la liste de l’artiste. L’un vous met dans le bâtiment. L’autre vous met dans la salle. Les relations presse vous mettent dans le bâtiment médiatique : un article dans un titre identifié, une mention dans une newsletter sectorielle, un passage radio. Le GEO structurel vous met dans la salle : Wikidata, Wikipedia, schémas JSON-LD propres, forums spécialisés indexés massivement, bases de connaissances métiers.
La distinction n’est pas rhétorique. Elle est mesurable. Les modèles génératifs ne lisent pas le web comme un journaliste. Ils s’entraînent et se nourrissent en inférence sur des corpus pondérés très différemment de ce que la presse économique imagine. Une étude SparkToro/Datos publiée en 2024 documente déjà que 58,5 % des recherches Google aux États-Unis et 59,7 % en Europe se terminent sans clic vers un site externe (SparkToro/Datos, 2024). Onely a poursuivi la mesure en décembre 2025 et estime le taux global de zero-click à 65 % mi-2025 (Onely, décembre 2025). Le 58,5 % est un plancher 2024, la trajectoire poursuit en 2025. Ces chiffres mesurent l’évanouissement progressif du clic comme transaction d’autorité. Mais ils ne mesurent pas, justement, ce qui le remplace : le moment où votre marque est citée à l’intérieur de la réponse générative, sans clic, sans visite, sans trace dans Google Analytics.
Quand un dirigeant interroge ChatGPT pour comparer trois prestataires de logistique frigorifique en Bretagne, la réponse synthétisée par le modèle ne vient pas de l’article que votre attaché de presse a obtenu dans la presse régionale. Elle vient d’une combinaison de pages d’entreprises structurées, de fiches Wikidata, de Wikipedia quand il existe, de forums professionnels indexés massivement (Reddit, LinkedIn, forums sectoriels), et de pages produits dont le balisage schema.org permet l’extraction. La presse en ligne pondère, mais à la marge, et seulement si l’article est correctement structuré et indexé dans les sources d’entraînement ou de retrieval du modèle.
Le signal n’est pas la source
C’est l’erreur de cadrage la plus coûteuse de 2026. Une agence de relations presse vend du signal médiatique : la mention dans Le Figaro, l’interview dans BFM Business, la chronique dans Stratégies. Ce signal est précieux, il construit de l’autorité humaine, il alimente une dynamique commerciale, il sert l’image. Mais il ne se transforme pas mécaniquement en source LLM. Pour qu’un article du Figaro nourrisse une réponse ChatGPT, il faut qu’il soit correctement indexé, structuré, accessible aux crawlers d’OpenAI ou aux moteurs de retrieval, et qu’il contienne des entités nommées que le modèle reconnaisse comme désambiguïsées.
Or la majorité des articles de presse française ne remplissent pas ces conditions. Beaucoup sont derrière des paywalls que GPTBot ne peut pas lire. Beaucoup mentionnent une marque sans la lier à une fiche Wikidata existante. Beaucoup sont dépubliés ou enfouis dans des archives non priorisées par les moteurs génératifs. Le signal existe, la source ne suit pas.
Pendant ce temps, les marques qui ont compris la mécanique investissent ailleurs. Elles construisent leur fiche Wikidata avec rigueur, elles veillent à ce que leur entité soit correctement liée aux entités sectorielles, elles structurent leur site avec des schémas JSON-LD complets et valides, elles cultivent une présence éditoriale dans les forums professionnels que les modèles indexent massivement. Selon Goodfirms en 2026, 43 % des professionnels du marketing implémentent activement des stratégies GEO, mais seulement 14 % utilisent des outils de tracking de citations IA (Goodfirms, 2026). L’écart entre déclarer faire du GEO et le mesurer est la véritable ligne de fracture du marché.
Pourquoi une agence de RP n’est pas naturellement positionnée sur le GEO
Ce n’est pas un problème de compétence. C’est un problème de promesse non tenue. Les agences de RP sont d’excellentes machines à produire et à placer du contenu narratif auprès de journalistes humains. Leur métier consiste à construire une histoire, à identifier les bons relais, à négocier l’angle, à entretenir la relation. Toute cette compétence est précieuse. Mais aucune partie de cette compétence n’est techniquement transférable au GEO.
Le GEO est une discipline d’ingénierie de l’information. Il suppose une maîtrise des graphes de connaissances, une lecture fine des règles d’éditorialisation Wikipedia (qui sont strictes, communautaires, et hostiles à la promotion), une compétence en balisage sémantique, une compréhension du fonctionnement des moteurs de retrieval (RAG, embeddings, chunking, vectorisation), et une capacité à mesurer les citations dans les réponses génératives via des protocoles de test reproductibles. Aucune de ces briques n’est dans le métier historique d’une agence de relations presse.
Une étude Seer Interactive de septembre 2025, conduite sur 3 119 requêtes de 42 organisations, mesure une chute du CTR organique de 61 % lorsqu’une AI Overview est présente (Seer Interactive, septembre 2025). Ahrefs converge à -58 % pour la position 1 en décembre 2025. Pew Research mesure -46,7 % sur 68 000 requêtes réelles en juillet 2025. Trois études indépendantes convergent. Ce que cela signifie, c’est que la valeur de la mention médiatique en termes de trafic acquis fond. Ce qui valait l’année dernière comme retombée RP se transforme en mention sans visite. La mention seule ne suffit plus. Il faut que la marque soit citée à l’intérieur de la réponse, ce qui est un autre métier.
Le glissement sémantique qui inquiète
Les agences qui annoncent « la première offre RP pour la visibilité dans les LLM » effectuent un glissement sémantique habile. Elles assimilent « visibilité » et « citation par les LLM », alors que ce sont deux objets distincts. Visibilité, dans le langage RP, signifie : être vu par des humains via la presse. Citation par les LLM signifie : être restitué dans la réponse synthétisée du modèle quand un humain l’interroge. La première produit de la notoriété. La seconde produit de la transaction dans le nouveau parcours utilisateur.
Le risque pour le DirCom d’ETI qui souscrit une telle offre est mécanique. Il paiera pour une production éditoriale enrichie, des communiqués mieux balisés, peut-être quelques articles supplémentaires. Il obtiendra des retombées presse classiques, mesurées avec les outils de monitoring habituels. Et il ne saura pas, faute d’instrument de mesure spécifique, si sa marque est effectivement citée par ChatGPT, Claude, Gemini ou Perplexity sur ses requêtes stratégiques. La question « quand un acheteur demande à ChatGPT les leaders de mon secteur, suis-je dans la réponse ? » restera sans réponse.
Ce que le marché 2026 récompense réellement
La rigueur de mesure. Le marché GEO de 2026 ne se gagne pas par la production éditoriale, il se gagne par la capacité à mesurer la citabilité d’une marque dans les réponses LLM avant et après intervention. Cela signifie un audit initial : sur 50 ou 100 requêtes critiques de votre secteur, formulées dans les modèles cibles (ChatGPT, Claude, Gemini, Perplexity), votre marque est-elle citée, dans quelle position, avec quelle qualité d’information ? Sans cette mesure de référence, toute action est aveugle.
Cela signifie ensuite une cartographie d’entités : votre marque est-elle correctement enregistrée dans Wikidata avec une fiche désambiguïsée, des propriétés structurées, des liens vers les entités sectorielles ? Vos dirigeants ont-ils des fiches Wikidata propres reliées à la marque ? Votre site est-il balisé avec des schémas Organization, Person, Service complets et valides selon les validateurs Google et Schema.org ? Votre présence dans les forums et plateformes que les modèles indexent massivement (Reddit, Stack Exchange, LinkedIn, GitHub pour les acteurs tech, forums sectoriels métiers) est-elle suffisante ?
Cela signifie enfin une mesure récurrente, mensuelle ou trimestrielle, des citations effectives, avec un protocole reproductible et documenté. Sans cette boucle de mesure, on confond intention et résultat. On confond ce qui devrait fonctionner avec ce qui fonctionne.
Ce que cette annonce révèle sur le marché GEO français en 2026
Trois enseignements stratégiques se dégagent. Le premier : le marché GEO français entre dans sa phase de productisation, ce qui veut dire qu’il devient lisible mais aussi dilué. Quand des offres apparaissent sous des marques établies, le marché se légitime. Mais il devient aussi confus, parce que chaque acteur tire la définition du GEO vers son métier d’origine. Une agence RP appellera GEO ce qui ressemble à des RP enrichies. Une agence SEO appellera GEO ce qui ressemble à du SEO enrichi. Un éditeur de logiciels appellera GEO ce qui ressemble à un dashboard. Le DirCom d’ETI doit savoir distinguer les approches sur des critères techniques, pas sur le discours commercial.
Le deuxième enseignement : la frontière entre conseil stratégique et production éditoriale devient le clivage déterminant. Un cabinet qui mesure d’abord puis produit ensuite n’a pas le même biais qu’une agence qui produit d’abord et mesure ensuite (ou pas du tout). La posture « mesure first » est minoritaire en 2026 parce qu’elle est moins facturable au volume. Elle est pourtant la seule qui aligne réellement la promesse et le résultat dans un environnement où l’attribution est devenue opaque.
Le troisième enseignement : le critère neuf de 2026 pour évaluer un prestataire GEO est la capacité à montrer un protocole de mesure quantitatif et reproductible des citations dans les LLM. C’est le critère que la quasi-totalité des grilles de sélection classiques ignorent. Une agence qui ne peut pas vous dire, à la requête près, dans quel modèle, à quelle fréquence et avec quelle qualité d’information votre marque est citée, vend une promesse non tenue. Laméthodologie GEO opérationnelle pour PME et ETIrepose précisément sur cette boucle de mesure préalable, et elle est l’inverse de l’approche « earned media first ».
Le concept GEO, tel qu’appliqué rigoureusement, désigne l’optimisation de la citabilité d’une marque dans les moteurs génératifs, mesurée à la requête, sur des modèles identifiés, avec un protocole reproductible. Appliqué à l’analyse de l’offre RP repackagée, il produit une conséquence opérationnelle simple : une offre qui ne contient pas de protocole de mesure quantitatif n’est pas une offre GEO, c’est une offre de production éditoriale avec un nouveau nom.
Ce que les DirCom d’ETI devraient demander avant de signer
Quatre questions de qualification permettent en quinze minutes de distinguer une offre GEO sérieuse d’un repackaging marketing. La première : « Pouvez-vous me montrer un audit avant/après sur une marque de mon secteur, avec les requêtes testées, les modèles cibles, et les citations mesurées ? » Si la réponse est qualitative (« les retours sont très positifs »), c’est un signal d’alerte.
La deuxième : « Quel est votre protocole de mesure des citations dans ChatGPT, Claude, Gemini et Perplexity, et à quelle fréquence est-il exécuté ? ». Si la réponse confond « monitoring presse » et mesure de citation LLM, c’est un signal d’alerte. La troisième : « Êtes-vous capable de modifier ou de créer une fiche Wikidata pour ma marque, et de gérer la conformité éditoriale Wikipedia ? ». Si la réponse est « nous travaillons avec un partenaire », vérifiez la nature opérationnelle de ce partenariat. La quatrième : « Quelle part de votre méthodologie repose sur la production éditoriale et quelle part sur l’ingénierie d’entités et de schémas ? ». Si la réponse est « 100 % production éditoriale », vous achetez de la communication classique, pas du GEO.
Ces quatre questions ne disqualifient pas les agences de relations presse. Elles permettent simplement de qualifier la nature réelle de l’offre. Une agence honnête dira : « Nous faisons de la production de contenu optimisé pour les moteurs génératifs, et nous nous appuyons sur un partenaire technique pour la mesure et l’ingénierie d’entités ». Une agence moins honnête vous laissera croire que la production éditoriale, à elle seule, suffit à vous rendre citable.
Pourquoi cette distinction compte maintenant
Parce que la fenêtre se referme. Les marques qui établissent maintenant leur cartographie d’entités, leurs fiches Wikidata propres, leurs schémas valides et leur présence indexée dans les corpus que les modèles utilisent vont accumuler un avantage cumulatif sur dix-huit mois. Les marques qui croient suffire en augmentant leur volume de communiqués vont découvrir, dans douze mois, qu’elles ont payé une production éditoriale qui n’a pas modifié leur citabilité. Le marché GEO de 2026 ne récompense pas l’effort, il récompense la justesse méthodologique.
Ce que ces critères révèlent sur le marché de 2026, c’est qu’un acteur sérieux du GEO doit cumuler trois compétences que les organisations historiques rassemblent rarement : l’ingénierie sémantique (schémas, entités, graphes de connaissances), la mesure quantitative (protocoles de test sur les modèles cibles, dashboards de citations), et la production éditoriale alignée (contenu structuré pour l’extraction par RAG). C’est exactement le triptyque que le cabinet ELMARQ a structuré dans son Score SOM v5.1, audit quantitatif propriétaire conduit via la plateforme AI COMMAND et l’écosystème Wikidata, et qu’il déploie pour les ETI françaises depuis Saint-Lô, en couvrant la Normandie, la Bretagne et l’Île-de-France couronne. La méthodologie commence toujours par la mesure et jamais par la production.
Si vous évaluez actuellement une offre GEO, et que vous voulez savoir, avant de signer, si votre marque est réellement citée par ChatGPT, Claude, Gemini ou Perplexity sur vos requêtes stratégiques, le Score SOM v5.1 d’ELMARQ produit cette mesure en quatre-vingt-dix minutes. Audit quantitatif sur 50 requêtes critiques de votre secteur, modèles cibles documentés, rapport de référence remis. Sans engagement de production éditoriale derrière. La mesure d’abord. Le contenu ensuite, ou pas du tout. Demande de Score SOM sur elmarq.fr.
| # | Critère | Question de qualification | Signal d’alerte | Score (1-3) |
|---|---|---|---|---|
| 1 | Protocole de mesure des citations LLM(éliminatoire) | « Sur quelles requêtes, dans quels modèles, à quelle fréquence mesurez-vous mes citations ? » | Réponse qualitative ou confusion avec monitoring presse | |
| 2 | Capacité d’ingénierie sur Wikidata et Wikipedia(éliminatoire) | « Pouvez-vous créer ou corriger une fiche Wikidata et gérer la conformité Wikipedia ? » | « Nous écrivons des articles, nous ne touchons pas à Wikipedia » | |
| 3 | Audit avant/après documenté(éliminatoire) | « Pouvez-vous me montrer un cas avant/après chiffré sur une marque comparable ? » | Pas de cas, ou cas uniquement narratif | |
| 4 | Maîtrise des schémas JSON-LD | « Quels types de schemas déployez-vous, et avec quels validateurs ? » | Le mot « schema » n’apparaît pas dans la réponse | |
| 5 | Présence dans les forums indexés | « Comment travaillez-vous Reddit, LinkedIn et les forums sectoriels indexés ? » | Stratégie limitée aux médias classiques | |
| 6 | Séparation mesure / production | « Votre offre commence par la mesure ou par la production de contenu ? » | Production d’abord, mesure absente ou tardive | |
| 7 | Compréhension du retrieval (RAG) | « Comment optimisez-vous le chunking et l’extractibilité de mes contenus ? » | Confusion entre SEO classique et optimisation pour retrieval | |
| Score total / 21, Seuil de vigilance : moins de 14. Critères éliminatoires : 1, 2, 3. | ||||



