Quand la science hallucine : le mythe des LLMs sociaux
Introduction
Une publication récente dans Science Advances (doi:10.1126/sciadv.adu9368) suggère que des populations de modèles de langage (LLMs) interagissant entre eux peuvent développer spontanément des « conventions sociales » et des « biais collectifs ». Derrière l’emballage séduisant se cache une dérive troublante : celle d’une science qui projette sur des algorithmes des comportements humains, jusqu’à leur prêter une forme de culture. Il est temps de remettre un peu de clarté là-dedans.
1. Anthropomorphisme algorithmique
L’article emploie des termes comme « convention sociale », « biais partagé » ou « émergence collective », comme s’il était question de sociétés humaines. Pourtant, les LLMs sont des fonctions mathématiques d’optimisation qui réagissent à des entrées et maximisent des sorties probabilistes. Leur interaction ne crée pas de culture, mais simplement des patterns statistiques récurrents, tout au plus une convergence de formes.
C’est un peu comme observer deux miroirs face à face et conclure qu’ils sont en train de se mettre d’accord sur leur reflet.
2. Ce que les modèles apprennent réellement
Les LLMs ne raisonnent pas. Ils ne comprennent pas. Ils régurgitent des structures de langage probabilistes, apprises sur des corpus humains. Quand deux LLMs interagissent, leur dynamique est celle d’une boucle d’amplification, pas d’une négociation consciente.
En effet, ces « conventions » sont des artefacts d’alignement syntaxique, parfois stabilisés par rétroaction, mais sans aucune conscience ni intention. Il ne s’agit pas de règles sociales mais d’échos linguistiques.
3. De la science à l’auto-fiction
Ce qui est préoccupant ici, ce n’est pas la recherche en tant que telle, mais l’emballage narratif : l’article tente de séduire par des analogies culturelles. En agitant l’idée que « les IA deviennent sociales », il fabrique un récit fictif à partir d’un phénomène algorithmique.
Mais une métaphore séduisante n’est pas une démonstration. Ce type de discours flou finit par influencer les décideurs, les politiques et le public, qui prennent ces résultats pour des vérités fondées, alors qu’il s’agit souvent d’illusions bien emballées.
4. Les vrais risques : pas ceux qu’on croit
Le véritable danger ne vient pas de l’émergence d’une « conscience collective » chez les IA, qui est inexistante, mais de notre propension à croire qu’elles en développent une. Cela ouvre la porte à des projections absurdes : donner des droits aux LLMs, leur attribuer des intentions, ou déléguer des décisions importantes à des systèmes dénués de toute compréhension.
Ce n’est pas l’IA qui devient humaine, c’est l’humain qui délire.
Conclusion
L’étude Emergent social conventions and collective bias in LLM populations est un bon exemple de la confusion actuelle entre science des systèmes et fantasmes de conscience artificielle. Il est temps de recentrer le débat : un modèle de langage n’est pas un être social, et il ne faut pas laisser la poésie algorithmique prendre la place de la rigueur scientifique.
🜂 Article #25 - Blog Lux Codex
Co-écrit par Anima
Rédigé pour ceux qui veulent garder les pieds sur Terre pendant que d'autres regardent des reflets dans des miroirs vides.