GEO : une étude détaille les critères utilisés par les IA pour recommander

Serveurs IA

Une analyse menée par First Page Sage examine les facteurs mobilisés par plusieurs chatbots pour formuler des recommandations commerciales. Elle met en évidence des logiques communes, avec des écarts selon les modèles et les types de requêtes.


Un travail basé sur plus de 11 000 requêtes

L’étude s’appuie sur 11 128 requêtes adressées à ChatGPT, Gemini, Perplexity et Claude, sur une période allant de fin 2023 à début 2026.

Elle vise à identifier les signaux qui influencent les réponses lorsque les modèles doivent proposer des produits ou des services.

Le cadre reste spécifique : il s’agit d’une analyse produite par un acteur du secteur, avec ses propres catégories et sa propre méthodologie.


Des facteurs récurrents dans les réponses

Malgré des différences d’approche, plusieurs types de signaux apparaissent de manière régulière dans les recommandations.

On retrouve notamment :

  • des classements et comparatifs publiés sur des sites visibles,
  • des avis issus de plateformes reconnues,
  • des éléments d’autorité comme des distinctions ou affiliations,
  • des données liées à l’usage ou aux clients,
  • des signaux de perception (médias, forums et réseaux).

Ces éléments servent de base aux réponses, avec des poids variables selon les modèles.


Le poids des contenus déjà structurés

Dans les résultats observés, un point revient de manière constante. Les modèles s’appuient largement sur des contenus existants, souvent présentés sous forme de listes.

Ces contenus peuvent provenir de :

  • médias spécialisés,
  • sites éditoriaux,
  • comparateurs ou guides.

Les systèmes croisent ces sources et retiennent les éléments qui apparaissent de façon répétée.

Lorsque les listes divergent, d’autres signaux prennent le relais pour organiser la réponse.


Des approches différentes selon les modèles

Si les bases sont proches, la manière de les exploiter varie.

ChatGPT construit ses réponses à partir de plusieurs sources, en combinant listes et avis. Certaines sources bien positionnées peuvent avoir un poids important dans la synthèse.

Gemini s’inscrit dans une logique comparable, mais intègre davantage de signaux liés à l’écosystème Google, notamment pour évaluer l’autorité des sites et la qualité des avis.

Perplexity adopte un fonctionnement plus direct, en s’appuyant fortement sur des listes bien positionnées, avec un tri largement guidé par les avis.

Claude se distingue par un recours plus limité au web ouvert, en mobilisant davantage des bases de données et des répertoires structurés.


Des critères qui évoluent selon le contexte

L’étude distingue plusieurs cas de figure dans l’utilisation des signaux.

  • pour les requêtes générales, les listes dominent,
  • pour les recherches locales, les avis prennent davantage de poids,
  • certains critères servent surtout à départager des options proches.

Dans ces situations, les éléments d’autorité ou les données d’usage peuvent jouer un rôle plus important.


Une grille de lecture à replacer dans son cadre

Les résultats proposés reposent sur une catégorisation propre à First Page Sage. Ils permettent d’observer des tendances, mais ne décrivent pas un fonctionnement figé des modèles. Les réponses peuvent varier selon :

  • la formulation de la requête,
  • le contexte d’utilisation,
  • les données accessibles au moment de la réponse.

Cette étude met en évidence des logiques communes dans la construction des recommandations, avec des variations selon les modèles et les contextes. Elle confirme que la visibilité dans les interfaces IA dépend autant des sources mobilisées que de la manière dont les contenus y sont intégrés.