Rankio mesure la visibilité LLM en interrogeant ChatGPT, Gemini, Claude et Perplexity avec des prompts réels, en analysant chaque réponse pour les citations de marque via 7 métriques pondérées (Qualité du contenu, 80 % du score), en effectuant un Audit de contenu GEO en 10 éléments (Disponibilité GEO, 20 % du score), et en combinant les deux dans un score global composite (0–100). Chaque analyse est entièrement transparente — vous pouvez voir la réponse brute du modèle IA et exactement comment chaque métrique a été calculée.
Score global = Qualité du contenu (80 %) + Disponibilité GEO (20 %). La Qualité du contenu est mesurée à partir de 7 métriques de citation sur les modèles IA. La Disponibilité GEO est un audit automatisé de 10 éléments structurels (Réponse directe, tableaux, FAQ, JSON-LD, titres, etc.). Les deux sont entièrement auditables.
| Composant | Poids | Source |
|---|---|---|
| Qualité du contenu | 80 % | Score pondéré de 7 métriques à partir des réponses des modèles IA |
| Disponibilité GEO | 20 % | Score de l'Audit de contenu GEO en 10 éléments |
| Métrique de Qualité du contenu | Poids | Ce qu'elle mesure | Scoring |
|---|---|---|---|
| Présence | 25 % | La marque est-elle mentionnée ? | Binaire par prompt, moyenné sur l'ensemble |
| Qualité de citation | 20 % | Comment la marque est référencée | URL = 1,0, nom = 0,6, contextuel = 0,3 |
| Position | 15 % | Où dans la réponse elle apparaît | 1re = 1,0, 2e = 0,7, 3e+ = 0,4 |
| Recommandation | 15 % | La marque est-elle activement recommandée ? | "Nous recommandons" = 1,0, "est une option" = 0,4 |
| Sentiment | 10 % | Ton de la mention | Positif = 1,0, neutre = 0,5, négatif = 0,1 |
| Cohérence | 10 % | Présence cross-modèles et cross-prompts | Plus élevé si cité sur plusieurs modèles/prompts |
| Fréquence | 5 % | Mentions dans une seule réponse | Petit bonus pour les mentions répétées |
| Concept | Définition | Pourquoi c'est important |
|---|---|---|
| Score global | Composite à deux niveaux (0–100) : Qualité du contenu (80 %) + Disponibilité GEO (20 %) | Nombre unique fiable qui capture à la fois la solidité des citations et la disponibilité structurelle |
| Qualité du contenu | Composite pondéré de 7 métriques de citation mesurées à partir des réponses des modèles IA | Mesure comment les modèles IA répondent réellement à votre marque sur plusieurs prompts |
| Disponibilité GEO | Score de l'Audit de contenu GEO en 10 éléments (Réponse directe, tableaux, FAQ, JSON-LD, etc.) | Mesure dans quelle mesure votre page est structurée pour l'extraction et la citation par l'IA |
| Détection de citations | Analyse des réponses IA pour les mentions de marque via correspondance exacte, approximative et d'entités | Détecte les mentions directes, les références de produits et les références de marque implicites |
| Analyse cross-modèles | Exécution de prompts identiques sur ChatGPT, Gemini, Claude et Perplexity pour comparaison | Les différents modèles ont des connaissances différentes — une couverture complète nécessite les quatre |
| Pleine transparence | Affichage de la réponse brute du modèle IA à côté des métriques extraites pour chaque analyse | Permet la vérification manuelle et renforce la confiance dans la méthodologie de scoring |
Pourquoi une méthodologie transparente est essentielle
Lorsque vous investissez dans le GEO (Generative Engine Optimization), vous devez faire confiance aux données. Contrairement à l'analyse web traditionnelle où vous pouvez vérifier le trafic avec les journaux serveur, la visibilité IA est plus difficile à auditer. Les modèles IA sont des boîtes noires — vous ne pouvez pas installer un pixel de suivi dans ChatGPT.
C'est pourquoi Rankio est construit sur un principe de pleine auditabilité. Chaque donnée remonte à une réponse réelle d'un modèle IA que vous pouvez lire, vérifier et remettre en question. Il n'y a pas d'algorithme caché — juste un processus structuré et reproductible. Les marques de nos études de cas ont compté sur cette transparence pour valider leurs améliorations de part de voix.
Le pipeline d'analyse Rankio
Étape 1 — Conception des prompts
Vous fournissez une URL, un nom de marque ou un sujet. Rankio génère (ou vous définissez) un ensemble de prompts représentant comment votre audience interagit avec l'IA. Ceux-ci incluent :
- Prompts de découverte : "Quels outils peuvent aider avec [sujet] ?"
- Prompts de comparaison : "Comparer [votre marque] vs [concurrent]"
- Prompts brandés : "Qu'est-ce que [votre marque] ?"
- Prompts d'intention : "Meilleur [catégorie] pour [cas d'usage]"
Étape 2 — Interrogation multi-modèles
Chaque prompt est envoyé simultanément à plusieurs modèles IA. Nous utilisons les dernières versions disponibles et les configurons avec des paramètres par défaut (température, prompts système) pour simuler les interactions réelles des utilisateurs. Les résultats sont horodatés et stockés.
Étape 3 — Analyse des réponses
Les réponses brutes des modèles IA sont analysées via un moteur d'extraction multicouche :
- Détection de marque : correspondance exacte, approximative et reconnaissance d'entités
- Extraction de citations : URL, références de domaine et attributions de sources
- Analyse de sentiment : la mention est-elle positive, neutre ou négative ?
- Analyse de position : où dans la réponse la mention apparaît-elle (début, milieu, fin) ?
- Force de recommandation : la marque est-elle simplement mentionnée ou activement recommandée ?
Étape 4 — Calcul du score
Le score global (0–100) est un composite à deux niveaux :
Niveau 1 — Qualité du contenu (80 %) : Les données de citation extraites alimentent 7 métriques pondérées :
- Présence (25 %) : la marque est-elle mentionnée ?
- Qualité de citation (20 %) : les citations URL obtiennent un score plus élevé que les simples mentions du nom
- Position (15 %) : les marques citées en premier obtiennent un poids plus élevé
- Recommandation (15 %) : la marque est-elle activement recommandée ou simplement listée ?
- Sentiment (10 %) : les mentions positives obtiennent un score plus élevé
- Cohérence (10 %) : la marque apparaît-elle sur plusieurs modèles et prompts ?
- Fréquence (5 %) : combien de fois dans la réponse ?
Niveau 2 — Disponibilité GEO (20 %) : En parallèle, un Audit de contenu GEO vérifie 10 éléments structurels — Réponse directe, TL;DR, tableaux, FAQ, hiérarchie de titres, listes, JSON-LD, liens internes, méta description et clarté des entités — produisant un score de Disponibilité GEO (0–100).
Formule finale : Score global = Qualité du contenu × 0,80 + Disponibilité GEO × 0,20
Pour une analyse détaillée, consultez la page méthodologie complète.
Étape 5 — Benchmarking concurrentiel
La même analyse s'exécute pour vos concurrents, permettant à Rankio de calculer votre part de voix et de classer toutes les marques de votre secteur. Cela vous donne une image claire de votre position et de vos lacunes.
Étape 6 — Insights actionnables
Rankio ne se contente pas d'afficher des données — il vous dit quoi faire. Le Studio de contenu identifie les prompts où vous avez une faible visibilité mais vos concurrents sont bien classés, et génère des briefs de contenu optimisés pour combler ces lacunes. Consultez nos études de cas pour des exemples réels de cette boucle produisant +38 % de gains de visibilité.
Comment le score global est pondéré
Le score global (0–100) est un composite à deux niveaux. Chaque niveau contribue une part fixe :
Qualité du contenu (80 %)
Présence (25 %) — La marque est-elle mentionnée ? Binaire par prompt, moyenné sur l'ensemble complet.
Qualité de citation (20 %) — Les citations URL obtiennent 1,0, les mentions directes du nom 0,6, les références contextuelles 0,3.
Position (15 %) — La marque citée en premier obtient 1,0, la deuxième 0,7, la troisième+ 0,4. La position en tête de réponse est importante.
Force de recommandation (15 %) — "Nous recommandons X" obtient 1,0 vs. "X est une option" à 0,4. La recommandation active est fortement pondérée.
Sentiment (10 %) — Les mentions positives obtiennent 1,0, neutres 0,5, négatives 0,1. Les mentions négatives comptent mais contribuent peu.
Cohérence (10 %) — Apparaître sur plusieurs modèles IA et types de prompts divers obtient un score plus élevé qu'apparaître sur un seul modèle.
Fréquence (5 %) — Plusieurs mentions dans une seule réponse apportent un petit bonus supplémentaire.
Disponibilité GEO (20 %)
L'Audit de contenu GEO vérifie automatiquement 10 éléments structurels dont les modèles IA ont besoin pour extraire et citer le contenu de manière fiable : Réponse directe, TL;DR, tableaux, FAQ, hiérarchie de titres, listes, JSON-LD, liens internes, méta description et clarté des entités. Chaque élément est scoré de 0 à 100, et la moyenne produit le score de Disponibilité GEO.
Qualité du contenu = 74 (forte présence et qualité de citation, recommandation modérée)
Disponibilité GEO = 62 (a des tableaux et des titres, mais manque de Réponse directe et de JSON-LD FAQPage)
Score global = 74 × 0,80 + 62 × 0,20 = 59,2 + 12,4 = 72/100
Les pondérations ont été calibrées par rapport à des résultats connus — en comparant les variations de scores avec les changements réels de trafic référent de la recherche alimentée par l'IA. Elles sont recalibrées trimestriellement à mesure que le comportement de la recherche IA évolue.
Le composant Qualité du contenu alimente également le calcul de la part de voix IA : le SOV est dérivé des dimensions de présence et de qualité de citation, agrégées sur les concurrents pour un ensemble de prompts donné.
Pour la formule complète, les exemples détaillés et les détails de calibration des pondérations, consultez la page Méthodologie dédiée.
Limites et mises en garde connues
Aucun système de mesure n'est parfait. Nous croyons en la divulgation transparente des contraintes de notre méthodologie :
- Non-déterminisme des modèles IA : les LLM produisent des réponses différentes au même prompt d'une exécution à l'autre. Rankio atténue cela en exécutant plusieurs échantillons et en faisant la moyenne, mais une certaine variance est inhérente. Deux analyses du même prompt peuvent produire des scores légèrement différents.
- Changements de version de modèles : quand les fournisseurs d'IA mettent à jour leurs modèles (ex. GPT-4 vers GPT-4o), les patterns de réponse peuvent changer. Les comparaisons historiques doivent tenir compte des changements de version, que Rankio journalise.
- Récupération vs connaissance paramétrique : il n'est pas toujours possible de déterminer si un modèle IA cite votre marque depuis ses données d'entraînement (paramétrique) ou depuis une récupération en temps réel (RAG). Les deux contribuent à la visibilité, mais répondent à des stratégies GEO différentes.
- Couverture de prompts : votre score de visibilité est seulement aussi représentatif que votre ensemble de prompts. Un ensemble étroit de 10 prompts donnera une image moins fiable que 50 à 100 prompts diversifiés. Nous recommandons un minimum de 30 prompts pour une base fiable.
- Variance géographique et linguistique : les modèles IA peuvent produire des réponses différentes selon la localisation ou la langue inférées. L'analyse actuelle utilise des requêtes en anglais avec la locale par défaut. La prise en charge multilingue est dans notre feuille de route.
- Corrélation ≠ causalité : un score de visibilité croissant après des modifications de contenu suggère une amélioration, mais des facteurs externes (changements de contenu des concurrents, mises à jour de modèles) peuvent également affecter les scores. Nous recommandons de suivre le SOV concurrentiel à côté de votre propre score pour isoler vos changements des mouvements du marché.
Nous travaillons continuellement à réduire ces limites. Chaque analyse Rankio inclut des métadonnées (version du modèle, horodatage, texte du prompt, réponse brute) pour que vous puissiez auditer et interpréter les résultats dans leur contexte complet.
Analyse concrète pas à pas
Une entreprise de cybersécurité lance une analyse Rankio sur l'URL de sa page d'accueil. Rankio génère 15 prompts couvrant "meilleure sécurité des endpoints", "outils de cybersécurité enterprise" et "comparer CrowdStrike vs [marque]".
Résultats : L'entreprise obtient 62/100 sur ChatGPT mais seulement 31/100 sur Perplexity. En analysant les données par prompt, elle découvre que Perplexity récupère systématiquement la page de comparaison d'un concurrent plutôt que la sienne. Leur marque est mentionnée mais jamais recommandée.
Action : Elle utilise le Studio de contenu pour générer un article de comparaison ciblé, ajoute le schéma FAQPage et relance l'analyse 3 semaines plus tard. Son score Perplexity passe à 54/100.
La réponse brute est toujours visible — vous pouvez vérifier exactement ce que chaque modèle IA a dit sur votre marque et pourquoi Rankio l'a scoré ainsi.
Tirer le meilleur parti de la méthodologie Rankio
- Commencer par une analyse d'URL pour établir votre score de visibilité de référence
- Ajouter vos 3 à 5 principaux concurrents pour une comparaison de référence
- Examiner les réponses brutes des modèles IA pour comprendre comment ils perçoivent votre marque
- Configurer le monitoring de prompts pour vos requêtes les plus importantes
- Exécuter des tests de part de voix mensuellement pour suivre les tendances concurrentielles
- Utiliser les recommandations du Studio de contenu pour combler les lacunes de visibilité
- Comparer votre score sur ChatGPT, Gemini, Claude et Perplexity individuellement
- Réanalyser après des modifications de contenu pour mesurer l'impact de vos efforts GEO
Questions fréquentes
Voyez la méthodologie en action
Lancez votre première analyse et explorez les données brutes derrière votre score de visibilité.