.jpg)

Vos prospects posent leurs questions à ChatGPT, Perplexity ou Gemini avant même d’ouvrir Google. Si votre marque n’est pas citée dans ces réponses, vous n’existez pas dans leur processus de décision. Le Share of Voice IA mesure précisément ce risque, et la plupart des marques B2B françaises ignorent encore leur score. Cet article publie la méthode que 425PPM utilise pour ses clients, avec le dataset complet de 50 prompts en accès libre.
Le Share of Voice IA (SoV IA) est le pourcentage de prompts buyer-intent sur lequel un LLM (ChatGPT, Perplexity, Gemini, Copilot) cite nommément votre marque, rapporté au total de prompts testés. Un SoV IA de 20 % signifie que votre marque apparaît dans 10 réponses sur 50 prompts.
Ce KPI diffère du SoV publicitaire classique, qui mesure votre part de voix dans les espaces achetés. Il diffère aussi du Share of Search Google, qui mesure le volume de recherches brandées relatives. Le SoV IA mesure la présence organique dans les réponses synthétisées, là où aucun budget media ne peut acheter une place directement.
Pourquoi en faire le KPI canonique de 2026 ? Parce que les LLM deviennent des prescripteurs actifs dans le parcours d’achat B2B. Une part croissante des requêtes commerciales B2B passe désormais par une IA générative avant toute visite de site, et plusieurs études convergent sur une corrélation entre citation LLM et trafic direct GA4 sur les segments SaaS et fintech (constat également observé sur nos clients 425PPM). C’est précisément ce qui pousse à repenser la stratégie de marque à l’ère de la recherche IA.
La qualité du dataset détermine tout. Un prompt mal calibré (trop générique, trop branded) fausse le score et rend les comparaisons dans le temps inutilisables.
Répartissez vos prompts selon trois catégories :
Les prompts comparatifs génèrent les listes de marques les plus explicites. Les prompts problème testent si votre marque est associée à un usage concret dans la base de connaissance du LLM.
SaaS RH : « Quel logiciel SIRH recommandes-tu pour une ETI de 300 salariés en France ? » Fintech : « Quelles solutions de paiement B2B sont adaptées aux marketplaces françaises ? » Cleantech : « Quels acteurs français proposent des bilans carbone certifiés pour les PME industrielles ? » Conseil / ESN : « Quelle agence spécialisée en transformation digitale recommandes-tu pour une DirCom B2B ? »
Règle absolue : gelez votre set pendant 12 semaines minimum. Modifier un prompt en cours de mesure casse la série temporelle. Si vous voulez tester de nouveaux prompts, créez un second set en parallèle.
L’exécution manuelle prend 90 minutes par semaine pour 50 prompts sur 4 plateformes, à condition de suivre le protocole à la lettre.
Chaque session doit être lancée depuis :
Pourquoi ? Les LLM personnalisent leurs réponses en fonction de l’historique utilisateur. Une session contaminée par vos recherches passées peut sur-citer votre marque ou celle de vos concurrents selon ce que vous avez consulté. Vos données seraient inexploitables.
| Plateforme | Modèle testé | Spécificité |
|---|---|---|
| ChatGPT | GPT-4o | Réponses longues, listes structurées |
| Perplexity | Sonar Pro | Réponses avec sources citées |
| Gemini | Gemini 1.5 Pro | Intégration Google Knowledge |
| Copilot | GPT-4 Turbo | Contexte Microsoft / LinkedIn |
Chaque plateforme a ses biais de citation. Perplexity cite davantage les sources médias et les pages bien référencées. Gemini favorise les entités présentes dans Google Knowledge Graph. Copilot sur-représente les marques avec une présence LinkedIn forte. Scorer les 4 vous donne un SoV IA composite plus robuste. Si vous voulez aller plus loin et automatiser une partie du tracking, nous avons comparé 7 outils de brand monitoring IA dédiés sur ce même protocole de 50 prompts.
Une ligne dans votre tableau = 1 prompt × 1 plateforme × 1 semaine. Les colonnes minimales :
Date | Semaine | Plateforme | Prompt_ID | Marque_citée | Position_citation | Sentiment | Source_citée | Texte_réponse (extrait)
Notez le texte exact de la réponse dans la dernière colonne. Vous en aurez besoin pour analyser le sentiment et les sources.
C’est le SoV IA brut. Nombre de prompts où votre marque apparaît / total de prompts testés. Calculez-le par plateforme et en agrégé.
Être cité en premier dans une liste de recommandations n’a pas la même valeur qu’être cité en cinquième. Loggez la position ordinale (1er, 2e, 3e cité) et calculez votre Position Moyenne de Citation (PMC). Une PMC de 1,8 est meilleure qu’une PMC de 3,4.
Trois catégories suffisent : recommandation active (« je recommande X »), mention neutre (« X est une option »), mention avec réserve (« X est adapté si vous acceptez certaines contraintes »). Le sentiment neutre ou avec réserve doit alerter : le LLM reflète probablement des avis mitigés présents dans ses données d’entraînement.
Sur Perplexity, les sources sont visibles. Notez si le LLM cite vos propres pages, des médias tiers, des comparateurs (Capterra, G2) ou les pages de vos concurrents. Ce KPI révèle directement les leviers d’action : si vos concurrents sont cités via G2 et que vous n’y avez pas de profil à jour, c’est une action immédiate.
La majorité du trafic généré par les IA génératives arrive en Direct dans GA4, car les LLM ne transmettent pas de referrer HTTP dans leurs interfaces natives. Suivez votre trafic Direct semaine par semaine en parallèle de votre SoV IA. Une corrélation positive entre hausse du SoV IA et hausse du Direct est un signal fort de conversion. Pour la réconciliation CRM, alimentez le champ Original Source avec le domaine referral GA4 quand il est disponible (cas Perplexity notamment), pas via UTM qui reste inapplicable sur le earned pur. La même logique de mesure indirecte structure d’ailleurs le framework de ROI qui remplace l’AVE en relations presse.
425PPM a mesuré le SoV IA sur 50 prompts buyer-intent FR × 12 marques B2B françaises × 4 plateformes entre janvier et avril 2026. Les secteurs couverts : SaaS RH, fintech B2B, cleantech, ESN/conseil. Les marques ont été anonymisées (M1 à M12) pour publication.
La médiane du SoV IA B2B FR est inférieure à 5 %. Autrement dit, la marque médiane de notre échantillon est citée dans moins de 2,5 prompts sur 50. Ce résultat est cohérent avec ce que nous observons en moyenne sur les missions GEO 425PPM : la majorité des marques B2B françaises restent invisibles dans les IA génératives, en attendant que la discipline mature.
Le top quartile (Q3) commence à 14 % de SoV IA. Les marques dans ce quartile partagent trois caractéristiques communes :
Le bottom quartile (Q1) est à 0 % de SoV IA. Ces marques n’apparaissent dans aucune réponse sur 50 prompts. Elles ont en commun une présence web quasi exclusivement brandée (peu ou pas de contenus catégoriels ou problème) et aucune mention sur des sources tierces à forte autorité.
| Secteur | Médiane SoV IA | Top quartile | Marque leader observée |
|---|---|---|---|
| SaaS RH | 4 % | 18 % | M3 |
| Fintech B2B | 6 % | 22 % | M7 |
| Cleantech | 3 % | 11 % | M11 |
| ESN / Conseil | 2 % | 9 % | M2 |
La fintech B2B affiche les scores les plus élevés, probablement parce que les comparateurs (Capterra, Trustpilot) y sont très actifs et constituent des sources privilégiées des LLM.
Les 50 prompts utilisés pour cette étude sont disponibles en accès libre sous licence CC-BY.
Accéder au dataset complet : disponible sur demande à bonjour@425ppm.com (publication open data du dataset v1.0 prévue Q3 2026). Précisez votre secteur, on adapte les prompts à votre vertical avant l’envoi.
Le fichier contient :
Conditions de réutilisation : citation de la source (425PPM, 2026) requise. Usage commercial autorisé. Modification du dataset autorisée avec mention des changements.
Comment contribuer : si vous mesurez votre SoV IA avec ce dataset et souhaitez partager vos résultats anonymisés pour enrichir la prochaine vague (Q3 2026), contactez-nous via le formulaire en bas de page. Chaque contribution sera créditée dans la publication suivante.
Un score SoV IA sans plan d’action ne sert à rien. Les trois leviers qui font monter le score le plus vite, d’après nos observations :
Publier des données originales datées. Les LLM cherchent des faits vérifiables. Une étude avec des chiffres précis et une date explicite est une cible naturelle pour la citation. Cet article en est lui-même une illustration. Pour aller plus loin sur le format étude, voir notre arbre de décision communiqué, tribune ou étude par objectif business.
Obtenir des mentions sur des forums et communautés publiques. Reddit, Quora, les forums sectoriels : ces sources sont sur-représentées dans les données d’entraînement des LLM. Une stratégie de présence sur ces plateformes a un effet direct sur le SoV IA, bien plus qu’un article de blog supplémentaire sur votre propre domaine.
Structurer vos contenus pour les capsules de réponse. Les LLM favorisent les textes qui répondent directement à une question en 50 à 100 mots, avec un sujet clairement nommé. La section d’ouverture de cet article en est un exemple appliqué. C’est aussi le socle d’une stratégie de contenu SEO conçue pour performer avec l’IA en 2026.
Mesurez votre SoV IA ce mois-ci avec le dataset, notez votre score de départ, et revenez dans 12 semaines. C’est la seule façon de savoir si vos actions GEO produisent un effet réel.