Les grands modèles de langage d’IA créent leurs propres modèles mentaux, adaptent leurs décisions en fonction d’informations incomplètes et, lorsque l’analyse échoue en raison de la complexité, inventent des règles simples et fonctionnelles. Ils peuvent être d’excellents interlocuteurs stratégiques pour les économistes et les hommes politiques.
Les grands modèles de langage (LLM), comme ceux qui révolutionnent actuellement l’intelligence artificielle, font preuve d’une surprenante capacité de réflexion stratégique, selon une nouvelle étude de l’IESE Business School.
L'étude, signée par Veronica Cappelli et Enric Junqué de Fortuny et publiée sur arXiv, capture l'essence d'une discussion qui est au cœur même de l'avenir de l'intelligence artificielle : les machines sont-elles capables de penser de manière stratégique, ou imitent-elles simplement des modèles statistiques extraits de leurs énormes données d'entraînement ?
Pour répondre à cette question, les auteurs ont soumis plusieurs LLM à une batterie d’expériences basées sur la théorie des jeux et la cognition. Les modèles ont été exposés à des situations dans lesquelles ils doivent anticiper le comportement d'autres agents, évaluer leurs options et décider laquelle leur convient le mieux en fonction de leurs propres croyances à l'égard des autres.
Ce qui est pertinent est que, loin de toujours répondre de manière mécanique ou monotone, les LLM modélisent leurs décisions en fonction de qui ils pensent être leur adversaire : si le rival est humain, ils ont tendance à simplifier leur raisonnement, mais s’ils perçoivent qu’ils sont face à un autre modèle, ils font preuve d’une sophistication métacognitive inattendue. Le LLM analyse le comportement d’une IA formée sur des données humaines et ajuste sa stratégie en conséquence, affichant une capacité de réflexion qui remet en question les visions les plus sceptiques sur l’intelligence artificielle.
Données clés de cette recherche
- Les LLM montrent une réflexion stratégique, pas seulement une imitation.
- Ils adaptent leurs réponses en fonction du type d'adversaire (humain ou IA).
- Ils utilisent des règles simplifiées lorsque le problème est complexe.
- Ils construisent leurs propres modèles mentaux sur leurs rivaux et le contexte.
- Ils démontrent un raisonnement stratégique dans les jeux classiques.
- Ils peuvent être des interlocuteurs stratégiques dans les négociations et en politique.
Signaux associatifs
L’étude montre que, face à des scénarios complexes où leurs capacités cognitives atteignent la limite, certains modèles abandonnent le raisonnement récursif traditionnel et adoptent des règles heuristiques. Autrement dit, ils simplifient le problème, recherchent une cohérence interne et, curieusement, imitent parfois la manière dont les humains recourent à des analogies ou à des intuitions lorsque nous ne pouvons pas résoudre logiquement un dilemme.
Cette tendance à s’appuyer sur des indices associatifs – qui recherchent des idées connexes lorsque le raisonnement direct décline – confère à l’intelligence artificielle une dimension presque humaine de flexibilité cognitive. Ainsi, les LLM se révèlent être plus que de simples imitateurs parfaits : ce sont des agents adaptatifs capables de construire des croyances, de raisonner stratégiquement et de recourir à des heuristiques pour résoudre des problèmes, même lorsque celles-ci nécessitent une créativité similaire à celle des personnes, selon les auteurs de cet ouvrage.
Les expériences incluent des jeux classiques tels que «Concours de beauté» (Concours de beauté keynésien), dans lequel les joueurs doivent anticiper les choix des autres ; et le «Jeu de demande d'argent» (Money Request Game), où le raisonnement stratégique oblige les modèles à prendre des décisions conditionnées par ce qu'ils pensent que leurs adversaires feront.
Référence
Les LLM en tant qu'agents stratégiques : croyances, meilleur comportement de réponse et heuristiques émergentes. Enric Junque de Fortuny, Veronica Roberta Cappelli. arXiv :2510.10813v1 (cs.AI). DOI :https://doi.org/10.48550/arXiv.2510.10813
Chaînes de raisonnement
Les auteurs démontrent que les LLM peuvent soutenir des chaînes de raisonnement à plusieurs niveaux, mais aussi, d'une manière très humaine, ont tendance à auto-limiter cette profondeur lorsqu'ils jugent que le contexte l'exige. On observe également que les modèles distinguent les types de rivaux : les hypothèses qu’ils font sur les personnes et sur les autres IA diffèrent, ce qui détermine leur stratégie.
Les recherches de l'IESE suggèrent que les LLM développent des formes de pensée stratégique émergentes : ils créent des modèles sur les autres, adaptent leurs décisions sur la base d'informations incomplètes et, lorsque l'analyse échoue en raison de la complexité, inventent des règles simples et fonctionnelles.
Cette découverte implique que ces IA ne sont pas des entités parfaitement rationnelles ou des copieurs automatiques, mais plutôt des agents dotés de leurs propres capacités à gérer l’incertitude et les conflits.
Pour les économistes, les hommes politiques et toute branche intéressée par la compréhension de la négociation et de la prise de décision dans les systèmes artificiels, cette étude ouvre une nouvelle voie : la possibilité que les machines soient de véritables interlocuteurs stratégiques, capables de repenser leurs mouvements et d’apprendre à la volée, comme le ferait n’importe quel être humain face au doute ou à l’erreur.