Accueil / Méthodologie

Comment Rankio calcule votre score de visibilité IA

23 févr. 2026 10 min de lecture Méthodologie, Scoring, Transparence

Rankio calcule le Score global (0–100) comme un composite à deux niveaux : Qualité du contenu (80 %) associée à la Maturité GEO (20 %). La Qualité du contenu est calculée à partir de 7 métriques pondérées par réponse IA : Présence (25 %), Qualité de citation (20 %), Position (15 %), Force de recommandation (15 %), Sentiment (10 %), Cohérence inter-modèles (10 %) et Fréquence (5 %). La Maturité GEO est le score de l'Audit de contenu GEO automatisé qui vérifie 10 éléments structurels dont les modèles d'IA ont besoin pour citer une page. Le modèle est calibré sur le trafic de référencement réel provenant de la recherche IA.

Rankio envoie les mêmes prompts à plusieurs modèles d'IA, analyse chaque réponse pour les citations de marque, note 7 dimensions de qualité de contenu, puis les combine avec un score de Maturité GEO (10 vérifications structurelles) en un composite unique de 0 à 100. Les pondérations sont calibrées trimestriellement sur des résultats de trafic réels. Chaque point de données est auditable.

Comment Rankio calcule le Score de visibilité

Le Score de visibilité répond à une question : quelle est la visibilité de votre marque quand les gens interrogent des modèles d'IA sur votre marché ? Il est calculé en cinq étapes :

1

Génération de prompts

Vous fournissez un nom de marque, une URL ou un sujet. Rankio génère (ou vous définissez) un jeu de prompts couvrant quatre types d'intention : découverte, comparaison, marque et requêtes basées sur l'intention. Un minimum de 30 prompts est recommandé pour une fiabilité statistique.

entrée : marque / URLsortie : jeu de prompts
2

Interrogation multi-modèles

Chaque prompt est envoyé simultanément à ChatGPT (OpenAI), Gemini (Google), Claude (Anthropic) et Perplexity. Les réponses sont capturées avec horodatage, version du modèle et texte brut complet. Le même jeu de prompts est utilisé sur tous les modèles pour garantir la comparabilité.

modèles : 4sortie : réponses brutes
3

Analyse des réponses

Chaque réponse est analysée pour les mentions de marque (correspondance exacte, correspondance approximative, reconnaissance d'entité, détection d'URL), la position de citation, le sentiment et le langage de recommandation. Cela produit un vecteur de métriques par prompt et par modèle.

détection : 4 méthodessortie : vecteurs de métriques
4

Notation des métriques

Les détections brutes sont converties en scores normalisés (0–1) pour chacune des 7 catégories de métriques (voir Modèle de scoring ci-dessous). Chaque score est multiplié par sa pondération de catégorie.

7 catégoriessortie : scores pondérés
5

Agrégation

Les scores pondérés sont additionnés par paire prompt–modèle, puis moyennés sur l'ensemble des prompts et modèles pour produire le Score de visibilité final (0–100). Le même pipeline, appliqué aux concurrents, produit votre Part de voix IA.

sortie : Score de visibilité 0–100

Le modèle de scoring : Qualité du contenu + Maturité GEO

Rankio utilise un modèle de scoring composite à deux niveaux. Le premier niveau — Qualité du contenu (80 % du score final) — est un modèle linéaire pondéré de 7 métriques. Le second niveau — Maturité GEO (20 %) — est le score de l'Audit de contenu GEO mesurant à quel point la page est structurée pour l'extraction IA.

Niveau 1 : Qualité du contenu (80 %)

Pour chaque paire prompt–modèle, chaque catégorie de métrique produit un score normalisé entre 0 et 1. Ces scores sont multipliés par leur pondération, additionnés et mis à l'échelle de 0 à 100.

MétriquePondérationCe qu'elle mesureComment elle est notée (0→1)
Présence 25 % La marque est-elle mentionnée dans la réponse IA ? Binaire : 1,0 si mentionnée, 0,0 sinon. Moyennée sur l'ensemble du jeu de prompts.
Qualité de citation 20 % Comment la marque est-elle référencée ? Citation d'URL = 1,0 · Mention directe du nom = 0,6 · Contextuelle/implicite = 0,3
Position 15 % Où dans la réponse la marque apparaît-elle ? 1ère position = 1,0 · 2ème = 0,7 · 3ème+ = 0,4
Recommandation 15 % La marque est-elle activement recommandée par l'IA ? « Nous recommandons » / « premier choix » = 1,0 · « est une option » = 0,4 · Pas de rec. = 0,0
Sentiment 10 % Quel est le ton de la mention ? Positif = 1,0 · Neutre = 0,5 · Négatif = 0,1
Cohérence 10 % La marque apparaît-elle sur plusieurs modèles et types de prompts ? Ratio de paires (modèle × prompt) où la marque est citée sur le total des paires
Fréquence 5 % Combien de fois la marque est-elle mentionnée dans une seule réponse ? 1 mention = 0,5 · 2 = 0,7 · 3+ = 1,0

Formule du score

Le Score global final est un composite à deux niveaux qui mélange la Qualité du contenu (les 7 métriques ci-dessus) avec la Maturité GEO (le score de l'Audit de contenu GEO) :

Formule composite

Score global = Qualité du contenu × 0,80 + Maturité GEO × 0,20

Où Qualité du contenu = Σ (métrique_i × pondération_i) × 100 pour les 7 métriques ci-dessus.

Et Maturité GEO = le score GEO global (0–100) de l'Audit de contenu GEO automatisé qui vérifie 10 éléments structurels (Réponse directe, tableaux, FAQ, JSON-LD, titres, listes, liens internes, méta-description, clarté des entités, TL;DR).

ComposantPondérationSource
Qualité du contenu80 %Score pondéré à 7 métriques (Présence, Qualité de citation, Position, Recommandation, Sentiment, Cohérence, Fréquence)
Maturité GEO20 %Score de l'Audit de contenu GEO sur 10 éléments (Réponse directe, TL;DR, tableaux, FAQ, titres, listes, JSON-LD, liens internes, méta-description, clarté des entités)

Exemple de score

MétriqueScore brutPondérationContribution
Présence1,0× 0,250,25
Qualité de citation0,6 (mention du nom)× 0,200,12
Position0,7 (2ème position)× 0,150,105
Recommandation0,4 (listé, non recommandé)× 0,150,06
Sentiment1,0 (positif)× 0,100,10
Cohérence0,67 (2 modèles sur 3)× 0,100,067
Fréquence0,7 (2 mentions)× 0,050,035
Sous-total Qualité du contenu0,737 → 74/100
Calcul composite

Qualité du contenu = 74 · Maturité GEO = 62 (la page a des tableaux et des titres mais manque de Réponse directe et de FAQ JSON-LD)

Score global = 74 × 0,80 + 62 × 0,20 = 59,2 + 12,4 = 72/100

Calibration des pondérations

Les pondérations sont recalibrées trimestriellement à l'aide d'une analyse de corrélation entre les deltas du Score de visibilité et les résultats de trafic de référencement et de conversion observés chez les clients Rankio consentants. Principes clés :

  • La calibration est toujours prospective — les scores historiques ne sont jamais modifiés rétroactivement
  • Chaque changement de calibration est documenté avec un numéro de version et une date d'entrée en vigueur
  • Un minimum de 500 échantillons prompt–modèle est requis avant d'appliquer un changement de pondération
  • L'ensemble de pondérations actuel (v2.0) est en vigueur depuis janvier 2026

Limites connues

Aucun système de mesure n'est parfait. Nous documentons nos contraintes pour que vous puissiez interpréter les résultats correctement.

LimiteImpactComment Rankio l'atténue
Non-déterminisme des LLM Le même prompt peut produire des réponses différentes à chaque exécution Moyenne multi-échantillons ; intervalles de confiance du score sur des exécutions répétées
Changements de version des modèles Les mises à jour des fournisseurs (ex. GPT-4 → GPT-4o) modifient les patterns de réponse La version du modèle est journalisée avec chaque analyse ; graphiques de tendance tagués par version
Connaissances paramétriques vs. de récupération On ne peut pas toujours déterminer si une citation vient des données d'entraînement ou d'une recherche en direct Perplexity utilise toujours la récupération ; GPT/Gemini sont signalés comme source mixte
Couverture du jeu de prompts La fiabilité du score dépend de l'étendue des prompts testés Minimum 30 prompts recommandé ; avertissements de couverture quand le jeu est trop petit
Variance géographique et linguistique Les réponses IA varient selon la localisation inférée La localisation par défaut est clairement documentée ; support multi-localisation en feuille de route
Pas de mesure directe du trafic IA Rankio mesure la visibilité (citations), pas les clics en aval des réponses IA Les corrélations avec le trafic de référencement sont utilisées pour la calibration ; intégration UTM prévue
Corrélation ≠ causalité Les changements de score peuvent refléter les mouvements des concurrents ou les mises à jour des modèles, pas seulement vos actions Suivez toujours les concurrents en parallèle via le benchmark de Part de voix

Ce que Rankio ne mesure pas

  • Les clics depuis les réponses IA — les interfaces IA n'exposent pas les données de référencement de façon cohérente. Rankio mesure la présence de citation, pas les clics en aval.
  • Les déploiements IA privés/enterprise — les GPT personnalisés ou les déploiements de modèles internes ne sont pas couverts.
  • La visibilité image/vidéo — l'analyse actuelle est uniquement textuelle. L'analyse multimodale est en feuille de route.

Pourquoi nous publions notre méthodologie

La visibilité IA est une nouvelle discipline. Il n'existe pas de Google Search Console pour les LLM. Quand la mesure est nouvelle, la confiance se gagne par la transparence — pas par des scores boîte noire.

Chaque analyse Rankio inclut :

  • La réponse IA brute complète pour chaque paire prompt × modèle
  • La décomposition par métrique montrant comment chaque score a été dérivé
  • La version du modèle, l'horodatage et le texte du prompt
  • Des données exportables pour une analyse indépendante

Nous pensons que si vous ne pouvez pas auditer un score, vous ne devriez pas lui faire confiance. Ce principe guide chaque décision de conception dans Rankio.

ConceptDéfinitionPourquoi c'est important
Score globalComposite à deux niveaux (0–100) : Qualité du contenu (80 %) + Maturité GEO (20 %)Un chiffre fiable unique qui capture à la fois la force de citation et la maturité structurelle
Qualité du contenuModèle linéaire pondéré de 7 métriques (Présence, Qualité de citation, Position, etc.)Mesure comment les modèles d'IA répondent réellement à propos de votre marque
Maturité GEOScore d'audit sur 10 éléments provenant de l'Audit de contenu GEOMesure à quel point votre page est structurée pour l'extraction IA
Non-déterminismeLes LLM peuvent produire des sorties différentes pour la même entréeExplique pourquoi les scores fluctuent légèrement entre les exécutions
Calibration prospectiveLes changements de pondération s'appliquent à l'avenir, jamais rétroactivementLes scores historiques restent comparables dans le temps
Pleine auditabilitéChaque score se trace jusqu'à une réponse IA brute que vous pouvez lireVous n'avez jamais à faire confiance à une boîte noire

Questions fréquentes

Le Score de visibilité (0–100) est un composite pondéré de 7 catégories de métriques : Présence (25 %), Qualité de citation (20 %), Position (15 %), Force de recommandation (15 %), Sentiment (10 %), Cohérence (10 %) et Fréquence (5 %). Chacune est mesurée par prompt et par modèle d'IA, puis moyennée sur l'ensemble du jeu.
Un modèle linéaire pondéré. Chaque paire prompt–modèle produit un score brut 0–1 par métrique. Ces scores sont multipliés par leur pondération, additionnés et mis à l'échelle de 0 à 100. Les pondérations sont calibrées trimestriellement sur le trafic de référencement réel provenant de la recherche IA.
Le non-déterminisme des LLM (le même prompt peut donner des réponses différentes), les changements de version des modèles, la difficulté de distinguer les connaissances paramétriques des connaissances de récupération, la couverture du jeu de prompts, la variance géographique/linguistique et l'impossibilité de mesurer directement les clics IA. Rankio atténue ces limites par la moyenne multi-échantillons, la journalisation des versions et une transparence totale des données.
Trimestriellement, sur la base d'une analyse de corrélation. Les changements sont toujours prospectifs — les scores historiques ne sont pas modifiés rétroactivement. Chaque calibration est versionnée et documentée.
Oui. Chaque analyse montre la réponse IA brute complète, la décomposition par métrique, la version du modèle, l'horodatage et le texte du prompt. Les données sont exportables pour une analyse indépendante.
ChatGPT (OpenAI), Gemini (Google), Claude (Anthropic) et Perplexity. Chaque modèle est interrogé avec le même jeu de prompts pour une comparaison équitable. De nouveaux modèles sont ajoutés lorsqu'ils atteignent une adoption significative.

Découvrez la méthodologie en action

Lancez votre première analyse et explorez les données brutes, la décomposition par métrique et les benchmarks concurrentiels derrière votre Score de visibilité.