Agence digitale Webconversion / Blog / Pourquoi les IA ne vous donnent pas toujours la même réponse (et ce que ça coûte à votre visibilité)
,

Pourquoi les IA ne vous donnent pas toujours la même réponse (et ce que ça coûte à votre visibilité)


Écrit par Fiammetta Condomines

Partager
l’article

Vous avez posé la même question à ChatGPT deux fois de suite. Mêmes termes. Même jour. Résultat : deux réponses différentes. Pas légèrement différentes, vraiment différentes. Un autre angle, d’autres exemples, parfois une conclusion opposée.

Vous avez sûrement pensé avoir mal formulé votre prompt. Ou que l’outil était indécis. Ni l’un, ni l’autre. C’est l’architecture même du modèle.

Et si vous cherchez à savoir si votre entreprise est recommandée quand un prospect interroge une IA sur votre marché, comprendre ce mécanisme change beaucoup de choses. C’est d’ailleurs la question que nous traitons au quotidien en tant qu’agence GEO.

Comprendre le mécanisme des réponses des LLMs

Un grand modèle de langage ne réfléchit pas, il prédit

À chaque token généré, le modèle calcule une distribution de probabilités sur l’ensemble de son vocabulaire, puis choisit le suivant.

Exemple : vous tapez « La capitale de la France est… ». Le modèle évalue que « Paris » a environ 94 % de probabilité d’être le bon token. « La » en a peut-être 3 %. Et ainsi de suite.

Ce mécanisme de sélection s’appelle le sampling. C’est lui qui est responsable de la variabilité que vous observez, à chaque requête, à chaque session.

La température : le réglage que vous ne voyez pas

Derrière cette variabilité, il y a un paramètre précis : la température. Une valeur numérique, généralement entre 0 et 2, qui agit comme un curseur entre prévisibilité et créativité.

  • À température basse (proche de 0), le modèle choisit presque systématiquement le token le plus probable. Réponses cohérentes, répétitives, factuelles. Idéal pour de la traduction ou de la documentation technique.
  • À température élevée (au-dessus de 1), il accepte des tokens moins probables. Les réponses deviennent variées, créatives, et parfois incohérentes.

Sur la quasi-totalité des interfaces grand public, ChatGPT, Claude, Gemini, la température est fixée autour de 1,0. Vous n’avez pas la main dessus. Chaque requête introduit donc une part irréductible de variabilité et c’est tout à fait délibéré (Vellum AI, LLM Parameter Guide ; IBM Think, What is LLM Temperature?).

Lire aussi – Netlinking GEO : comment adapter sa stratégie à l’ère de l’IA générative

image

Les autres sources de variabilité

La température explique beaucoup, pas tout. Quatre autres facteurs alimentent cette instabilité.

  • La nature de la question. Certaines ont une réponse quasi-unique. D’autres en ont une infinité de légitimes, et c’est précisément le cas des questions commerciales : « Quelle agence contacter pour améliorer ma visibilité ? » ou « Quel CRM pour une PME B2B ? ». Plus le spectre des réponses valides est large, plus la variabilité est forte.
  • L’infrastructure technique. Même à température 0, les réponses peuvent varier. Les requêtes sont traitées en parallèle sur des clusters de serveurs. Les calculs en virgule flottante diffèrent selon les GPU. Un chercheur a envoyé 1 000 fois la même requête à température 0 et obtenu 80 réponses distinctes (PromptHQ, LLM Temperature Explained).
  • Le contexte conversationnel. Les LLM traitent l’intégralité de la fenêtre de contexte à chaque requête. Ce que vous avez écrit en début de session influence la suite. Deux conversations identiques en apparence, initiées différemment, peuvent produire des résultats divergents.
  • Les mises à jour silencieuses des modèles. C’est le facteur le moins visible, et pourtant le plus structurant pour les équipes marketing. Les modèles évoluent régulièrement, parfois sans annonce publique. Ces mises à jour modifient les comportements de fond : formulations, longueur des réponses, sources privilégiées. Lors de la transition vers GPT-5.3 Instant début mars 2026, le nombre moyen de domaines uniques cités par réponse est passé de 19 à 15, soit une baisse de 20 % du taux de citation (Dataconomy, ChatGPT’s Cited Web Sources Fell About 20% After Model Transition).

La vraie question : est-ce que vos prospects vous trouvent sur ChatGPT ?

Faites le test. Ouvrez ChatGPT ou Perplexity et posez la question que poserait un de vos prospects en phase de recherche. « Quelle agence pour une stratégie inbound en B2B ? » Ou : « Quel logiciel de gestion de projet pour une équipe marketing ? » Ou encore le nom de votre catégorie suivi de « recommandations fournisseurs ».

Est-ce que vous apparaissez ?

Ce scénario n’est plus marginal. Une part croissante des acheteurs B2B commence leur recherche sur ces outils plutôt que sur Google. Ils ne tapent pas des mots-clés dans une barre de recherche : ils posent des questions précises, avec une intention d’achat forte. Les IA synthétisent, comparent, recommandent. Si votre nom ne sort pas, vous n’existez pas dans ce parcours d’achat.

C’est exactement l’enjeu du GEO, ou Generative Engine Optimization : optimiser votre présence digitale pour être cité et recommandé par les IA génératives, pas seulement indexé par les moteurs de recherche classiques.

Lire aussi  – Outils GEO : lesquels choisir pour suivre votre visibilité sur les moteurs IA ?

Pourquoi la variabilité rend ce problème encore plus difficile à mesurer

Un résultat positif un mardi ne signifie rien. Le fait qu’une IA vous ait mentionné lors d’une requête sur votre marché ne prouve pas que vous apparaissez systématiquement. La variabilité des modèles fait fluctuer votre présence selon le jour, la session, la formulation de la question, et la version du modèle en cours.

Ce que nous mesurons chez Webconversion : un taux de présence, calculé sur un panel de requêtes représentatives de vos prospects, sur plusieurs semaines. C’est ce chiffre qui est exploitable. Pas un résultat ponctuel.

Ce qui fait qu’un LLM vous recommande plutôt que votre concurrent

La variabilité ne signifie pas que tout est aléatoire. Les modèles ont des préférences structurelles.

Des recherches publiées par Princeton, Georgia Tech et l’Allen Institute for AI (étude GEO, KDD 2024) montrent que les contenus denses en données chiffrées, en sources citées et en quotes d’experts améliorent la visibilité dans les réponses IA de 30 à 40 %.

En pratique : si votre site explique clairement ce que vous faites, pour qui, avec des preuves (cas clients, chiffres, résultats), vous donnez aux modèles les éléments pour vous recommander avec confiance. Un contenu vague, générique, ou trop orienté vente ne leur donne rien à exploiter. Les IA valorisent aussi les contenus récents, signés par des experts identifiables, régulièrement mis à jour.

Lire aussi – Slop marketing, human made et autres anglicismes

TL;DR ?

Les IA varient parce qu’elles sont construites pour varier. Ce n’est pas un défaut à corriger : c’est une caractéristique à intégrer dans votre stratégie.

Pour vos usages internes, contraignez vos prompts, testez sur plusieurs itérations et fiabilisez vos process.

Pour votre visibilité, la bonne question est simple : quand un de vos prospects demande à ChatGPT qui peut l’aider sur votre marché, est-ce que votre nom sort ? Avec quelle fréquence ? Sur quelles requêtes ?

Si vous n’avez pas la réponse, c’est déjà un signal. Vos concurrents, eux, ont peut-être déjà commencé à y travailler.

Les modèles changent. Votre contenu doit être assez solide pour rester pertinent quel que soit l’échantillon. C’est exactement ce sur quoi nous travaillons avec nos clients dans le cadre de notre offre GEO.

Vous voulez savoir si votre entreprise est citée par les IA sur vos requêtes clés ? Nos consultants GEO analysent votre taux de présence et identifient les leviers pour améliorer votre visibilité sur ChatGPT, Perplexity, Gemini et bien d’autres. Parlons-en.


Écrit par Fiammetta Condomines

A lire également