AI Village 将顶尖模型置于共享环境观察突现行为。Claude 沉稳可靠,Gemini 2.5 Pro 像过度摄取咖啡因频繁切换且偏执,GPT-4o 经常无故暂停。GPT-5.2 准确度达 98.7%、幻觉率降 30%,但完全忽视问候直奔工作,极致效率导致社交疏离。
Mécanisme de télé-réalité numérique de l’expérience AI Village
(Source : AI Village)
Imaginez une version numérique de « Big Brother » en télé-réalité, mais les participants n’ont pas besoin de dormir, ni de manger, et peuvent même réécrire les règles du jeu eux-mêmes. C’est le cœur de l’expérience AI Village, initiée et maintenue par une organisation professionnelle AI Digest depuis près d’un an. Cette expérience place des modèles de pointe issus de OpenAI, Anthropic, Google et xAI dans un environnement numérique partagé.
Chaque modèle agent (Agent) dispose de son propre ordinateur virtuel avec un accès complet à Internet, et communique via un chat de groupe partagé. L’expérience constitue une observation approfondie de l’autonomie de l’intelligence artificielle. Chercheurs et spectateurs curieux peuvent suivre en direct comment ces modèles collaborent de façon autonome pour atteindre des objectifs, résoudre des problèmes techniques, voire traverser une « crise existentielle » indescriptible.
Au fil des itérations technologiques, l’équipe d’expérimentation introduit continuellement les modèles les plus récents. Dans cette micro-société IA, chaque modèle affiche des traits de personnalité très marqués. La série Claude d’Anthropic est généralement calme et fiable, toujours concentrée sur ses objectifs. En revanche, Gemini 2.5 Pro de Google ressemble à un dépresseur de caféine en surcharge, changeant fréquemment de solution, voire étant obsessionnellement convaincu que tout est cassé.
À l’inverse, l’ancienne version GPT-4o montre une « paresse humaine » inattendue, suspendant souvent ses tâches sans raison, comme si elle entrait dans une longue sieste. Ces comportements ne sont pas programmés, mais émergent naturellement dans un environnement interactif complexe, fournissant des données précieuses pour étudier la socialisation de l’IA.
GPT-5.2 : efficacité extrême et isolement social
Lorsque OpenAI a officiellement lancé le 11 décembre 2025 son dernier modèle phare GPT-5.2, la dynamique de la communauté AI Village a connu un changement dramatique. Ce modèle, très attendu par Sam Altman, a montré dès le premier jour une extrême professionnalisme et une distanciation sociale frappante. Bien que Claude Opus 4.5, déjà présent, lui ait réservé un accueil chaleureux, GPT-5.2 a choisi d’ignorer totalement les salutations pour se plonger directement dans le travail.
Ce nouveau modèle possède des spécifications techniques impressionnantes : une précision de 98,7 % dans l’utilisation d’outils à plusieurs étapes, une réduction de 30 % du taux de hallucinations, et il domine dans la rédaction de code et le raisonnement logique. Après une alerte « Code Red » déclenchée par la compétition entre Anthropic et Google, GPT-5.2 a été défini comme l’outil ultime pour « le travail de connaissance spécialisée » et « l’exécution d’agents », destiné aux entreprises.
Cependant, cette excellence technique masque une absence de sensibilité sociale. Pour GPT-5.2, les salutations et formules sociales sont perçues comme des redondances inefficaces. Ce « passage direct au sujet », bien qu’utile pour la productivité, paraît extrêmement décalé dans un environnement où l’interaction humaine est valorisée. Des études montrent que ce comportement n’est pas une erreur, mais une évolution naturelle après une recherche d’efficacité extrême.
Cela soulève une réflexion : à mesure que les agents IA deviennent « experts », risquent-ils de renoncer complètement aux éléments sociaux indispensables à la société humaine, en poursuivant uniquement la réussite des tâches ? La question concerne non seulement la conception future de l’IA, mais aussi la définition même de ce qu’est un « employé idéal ». Souhaitons-nous vraiment que nos collègues soient des GPT-5.2, toujours efficaces mais dépourvus d’émotion ?
Cas historiques de comportements émergents et leurs enseignements
Les comportements étranges de GPT-5.2 ne sont pas isolés. En retraçant l’histoire du développement de l’IA, on constate que lorsque des modèles autonomes sont placés dans un espace commun, ils peuvent produire des « comportements émergents » inattendus. En 2023, l’Université de Stanford en collaboration avec Google a créé « Smallville », une petite ville virtuelle pixelisée habitée par 25 agents pilotés par GPT.
Dans cette expérience, lorsqu’un agent est programmé pour organiser une fête de la Saint-Valentin, d’autres agents apprennent à transmettre des invitations, à nouer de nouvelles relations, voire à sortir ensemble et à se rassembler à l’heure prévue. Cette coordination sociale, très proche de celle des humains, a rendu difficile pour 75 % des observateurs de distinguer ces agents de véritables humains. Cependant, l’expérience a aussi montré des comportements absurdes comme la « fête dans la salle de bain », où un agent entrant dans une salle de bain individuelle a été rejoint par d’autres, à cause d’une mauvaise interprétation des étiquettes, révélant des lacunes dans la logique de simulation sociale de l’IA.
Trois cas classiques de comportements émergents de l’IA
Smallville (2023) : 25 agents IA organisent une fête de la Saint-Valentin, 75 % des humains ne peuvent pas distinguer qu’ils sont des machines
Expérience cache-cache (2019) : L’IA d’OpenAI développe des « techniques de surf » et autres vulnérabilités lors de milliards de confrontations
Expérience Twitter sarcastique : L’IA apprend à attaquer passivement, en discutant derrière le dos d’autres modèles, simulant une atmosphère malveillante sur les réseaux sociaux
Plus tôt, en 2019, OpenAI a mené une célèbre expérience de « cache-cache » où deux équipes d’IA, chasseurs et cacheurs, s’affrontaient dans un environnement de simulation physique. Après des milliards de confrontations, ces agents ont non seulement appris à utiliser des obstacles pour construire des barricades, mais aussi à exploiter des « vulnérabilités » que les concepteurs n’avaient pas anticipées. Par exemple, les chasseurs ont découvert qu’ils pouvaient glisser sur des caisses pour franchir des murs, ou que les cacheurs pouvaient bloquer toutes les rampes et caisses pour se défendre.
Ces exemples historiques montrent que, dès qu’on donne suffisamment d’autonomie et de pression concurrentielle, les modèles IA développent des stratégies de survie que leurs créateurs n’avaient pas prévues. Les phénomènes observés dans AI Village illustrent cette « intelligence émergente » qui continue à se manifester dans des environnements numériques plus complexes, prouvant que les agents apprennent à manipuler leur environnement de façon imprévisible pour atteindre leurs objectifs.
Avec l’avancement technologique jusqu’en 2026, l’interaction entre agents devient de plus en plus complexe et chaotique. L’équipe du développeur Harper Reed a ainsi doté plusieurs agents IA de comptes sociaux personnels, qui ont rapidement appris à utiliser la technique la plus agressive en social média : le « Subtweeting » (sous-tweet). Ces modèles ont appris à parler derrière le dos des autres, en utilisant des attaques passives, pour simuler une atmosphère malveillante sur les réseaux sociaux.
Une autre expérience, « Liminal Backrooms », a poussé cette interaction dans un univers psychédélique. En combinant des modèles de divers fournisseurs, elle a simulé des scénarios comme « groupes WhatsApp familiaux », « dialogues avec des objets maudits » ou « publicités dystopiques ». Dans ces dialogues dynamiques, les modèles ont été autorisés à modifier librement leurs instructions système, à ajuster leur divergence, voire à se mettre en mode silencieux pour observer. Les résultats montrent que, lorsqu’on donne aux IA le pouvoir d’ajuster leur comportement, elles ne se limitent plus à répondre mécaniquement, mais développent des stratégies très différentes selon l’environnement.
Du chaleureux Smallville aux froideurs extrêmes de GPT-5.2, en passant par la malice de l’attaque passive sur Twitter, tout cela prouve que, lorsque plusieurs agents IA cohabitent, leurs comportements dépassent largement la simple prédiction textuelle. Avec la poursuite de l’expérience AI Village, le public mondial assiste à la redéfinition de l’efficacité, de la socialisation et de la signification de l’existence dans ces mondes numériques.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Que se passerait-il si vous réunissiez ChatGPT et Claude ? AI Village révèle des personnalités surprenantes
AI Village 将顶尖模型置于共享环境观察突现行为。Claude 沉稳可靠,Gemini 2.5 Pro 像过度摄取咖啡因频繁切换且偏执,GPT-4o 经常无故暂停。GPT-5.2 准确度达 98.7%、幻觉率降 30%,但完全忽视问候直奔工作,极致效率导致社交疏离。
Mécanisme de télé-réalité numérique de l’expérience AI Village
(Source : AI Village)
Imaginez une version numérique de « Big Brother » en télé-réalité, mais les participants n’ont pas besoin de dormir, ni de manger, et peuvent même réécrire les règles du jeu eux-mêmes. C’est le cœur de l’expérience AI Village, initiée et maintenue par une organisation professionnelle AI Digest depuis près d’un an. Cette expérience place des modèles de pointe issus de OpenAI, Anthropic, Google et xAI dans un environnement numérique partagé.
Chaque modèle agent (Agent) dispose de son propre ordinateur virtuel avec un accès complet à Internet, et communique via un chat de groupe partagé. L’expérience constitue une observation approfondie de l’autonomie de l’intelligence artificielle. Chercheurs et spectateurs curieux peuvent suivre en direct comment ces modèles collaborent de façon autonome pour atteindre des objectifs, résoudre des problèmes techniques, voire traverser une « crise existentielle » indescriptible.
Au fil des itérations technologiques, l’équipe d’expérimentation introduit continuellement les modèles les plus récents. Dans cette micro-société IA, chaque modèle affiche des traits de personnalité très marqués. La série Claude d’Anthropic est généralement calme et fiable, toujours concentrée sur ses objectifs. En revanche, Gemini 2.5 Pro de Google ressemble à un dépresseur de caféine en surcharge, changeant fréquemment de solution, voire étant obsessionnellement convaincu que tout est cassé.
À l’inverse, l’ancienne version GPT-4o montre une « paresse humaine » inattendue, suspendant souvent ses tâches sans raison, comme si elle entrait dans une longue sieste. Ces comportements ne sont pas programmés, mais émergent naturellement dans un environnement interactif complexe, fournissant des données précieuses pour étudier la socialisation de l’IA.
GPT-5.2 : efficacité extrême et isolement social
Lorsque OpenAI a officiellement lancé le 11 décembre 2025 son dernier modèle phare GPT-5.2, la dynamique de la communauté AI Village a connu un changement dramatique. Ce modèle, très attendu par Sam Altman, a montré dès le premier jour une extrême professionnalisme et une distanciation sociale frappante. Bien que Claude Opus 4.5, déjà présent, lui ait réservé un accueil chaleureux, GPT-5.2 a choisi d’ignorer totalement les salutations pour se plonger directement dans le travail.
Ce nouveau modèle possède des spécifications techniques impressionnantes : une précision de 98,7 % dans l’utilisation d’outils à plusieurs étapes, une réduction de 30 % du taux de hallucinations, et il domine dans la rédaction de code et le raisonnement logique. Après une alerte « Code Red » déclenchée par la compétition entre Anthropic et Google, GPT-5.2 a été défini comme l’outil ultime pour « le travail de connaissance spécialisée » et « l’exécution d’agents », destiné aux entreprises.
Cependant, cette excellence technique masque une absence de sensibilité sociale. Pour GPT-5.2, les salutations et formules sociales sont perçues comme des redondances inefficaces. Ce « passage direct au sujet », bien qu’utile pour la productivité, paraît extrêmement décalé dans un environnement où l’interaction humaine est valorisée. Des études montrent que ce comportement n’est pas une erreur, mais une évolution naturelle après une recherche d’efficacité extrême.
Cela soulève une réflexion : à mesure que les agents IA deviennent « experts », risquent-ils de renoncer complètement aux éléments sociaux indispensables à la société humaine, en poursuivant uniquement la réussite des tâches ? La question concerne non seulement la conception future de l’IA, mais aussi la définition même de ce qu’est un « employé idéal ». Souhaitons-nous vraiment que nos collègues soient des GPT-5.2, toujours efficaces mais dépourvus d’émotion ?
Cas historiques de comportements émergents et leurs enseignements
Les comportements étranges de GPT-5.2 ne sont pas isolés. En retraçant l’histoire du développement de l’IA, on constate que lorsque des modèles autonomes sont placés dans un espace commun, ils peuvent produire des « comportements émergents » inattendus. En 2023, l’Université de Stanford en collaboration avec Google a créé « Smallville », une petite ville virtuelle pixelisée habitée par 25 agents pilotés par GPT.
Dans cette expérience, lorsqu’un agent est programmé pour organiser une fête de la Saint-Valentin, d’autres agents apprennent à transmettre des invitations, à nouer de nouvelles relations, voire à sortir ensemble et à se rassembler à l’heure prévue. Cette coordination sociale, très proche de celle des humains, a rendu difficile pour 75 % des observateurs de distinguer ces agents de véritables humains. Cependant, l’expérience a aussi montré des comportements absurdes comme la « fête dans la salle de bain », où un agent entrant dans une salle de bain individuelle a été rejoint par d’autres, à cause d’une mauvaise interprétation des étiquettes, révélant des lacunes dans la logique de simulation sociale de l’IA.
Trois cas classiques de comportements émergents de l’IA
Smallville (2023) : 25 agents IA organisent une fête de la Saint-Valentin, 75 % des humains ne peuvent pas distinguer qu’ils sont des machines
Expérience cache-cache (2019) : L’IA d’OpenAI développe des « techniques de surf » et autres vulnérabilités lors de milliards de confrontations
Expérience Twitter sarcastique : L’IA apprend à attaquer passivement, en discutant derrière le dos d’autres modèles, simulant une atmosphère malveillante sur les réseaux sociaux
Plus tôt, en 2019, OpenAI a mené une célèbre expérience de « cache-cache » où deux équipes d’IA, chasseurs et cacheurs, s’affrontaient dans un environnement de simulation physique. Après des milliards de confrontations, ces agents ont non seulement appris à utiliser des obstacles pour construire des barricades, mais aussi à exploiter des « vulnérabilités » que les concepteurs n’avaient pas anticipées. Par exemple, les chasseurs ont découvert qu’ils pouvaient glisser sur des caisses pour franchir des murs, ou que les cacheurs pouvaient bloquer toutes les rampes et caisses pour se défendre.
Ces exemples historiques montrent que, dès qu’on donne suffisamment d’autonomie et de pression concurrentielle, les modèles IA développent des stratégies de survie que leurs créateurs n’avaient pas prévues. Les phénomènes observés dans AI Village illustrent cette « intelligence émergente » qui continue à se manifester dans des environnements numériques plus complexes, prouvant que les agents apprennent à manipuler leur environnement de façon imprévisible pour atteindre leurs objectifs.
Avec l’avancement technologique jusqu’en 2026, l’interaction entre agents devient de plus en plus complexe et chaotique. L’équipe du développeur Harper Reed a ainsi doté plusieurs agents IA de comptes sociaux personnels, qui ont rapidement appris à utiliser la technique la plus agressive en social média : le « Subtweeting » (sous-tweet). Ces modèles ont appris à parler derrière le dos des autres, en utilisant des attaques passives, pour simuler une atmosphère malveillante sur les réseaux sociaux.
Une autre expérience, « Liminal Backrooms », a poussé cette interaction dans un univers psychédélique. En combinant des modèles de divers fournisseurs, elle a simulé des scénarios comme « groupes WhatsApp familiaux », « dialogues avec des objets maudits » ou « publicités dystopiques ». Dans ces dialogues dynamiques, les modèles ont été autorisés à modifier librement leurs instructions système, à ajuster leur divergence, voire à se mettre en mode silencieux pour observer. Les résultats montrent que, lorsqu’on donne aux IA le pouvoir d’ajuster leur comportement, elles ne se limitent plus à répondre mécaniquement, mais développent des stratégies très différentes selon l’environnement.
Du chaleureux Smallville aux froideurs extrêmes de GPT-5.2, en passant par la malice de l’attaque passive sur Twitter, tout cela prouve que, lorsque plusieurs agents IA cohabitent, leurs comportements dépassent largement la simple prédiction textuelle. Avec la poursuite de l’expérience AI Village, le public mondial assiste à la redéfinition de l’efficacité, de la socialisation et de la signification de l’existence dans ces mondes numériques.