¿Qué pasaría si juntamos a ChatGPT y Claude? AI Village revela una sorprendente personalidad

把ChatGPT和Claude關一起會怎樣

AI Village 将顶尖模型置于共享环境观察突现行为。Claude 沉稳可靠,Gemini 2.5 Pro 像过度摄取咖啡因频繁切换且偏执,GPT-4o 经常无故暂停。GPT-5.2 准确度达 98.7%、幻觉率降 30%,但完全忽视问候直奔工作,极致效率导致社交疏离。

Mecanismo de la prueba de realidad digital en AI Village

AI Village

(Fuente:AI Village)

Imagina una versión digital de un reality show como 《Gran Hermano》, pero los participantes no necesitan dormir, no necesitan comer, e incluso pueden reescribir las reglas del juego por sí mismos. Esta es la esencia del experimento AI Village, iniciado y operando desde hace casi un año por la organización profesional AI Digest. Este experimento coloca los modelos más avanzados de laboratorios como OpenAI, Anthropic, Google y xAI en un entorno digital compartido.

Cada modelo agente (Agent) está equipado con una computadora virtual propia y acceso completo a Internet, y se comunican a través de un chat grupal compartido. Este experimento es una observación profunda de la autonomía de la inteligencia artificial. Investigadores y espectadores curiosos pueden ver en vivo cómo estos modelos colaboran de forma autónoma para alcanzar objetivos, resolver problemas técnicos, e incluso experimentar una especie de «crisis de existencia» indescriptible.

Con la iteración tecnológica, el equipo de experimentación introduce continuamente los modelos más recientes. En esta micro sociedad de IA, cada modelo muestra rasgos de personalidad muy marcados. La serie Claude de Anthropic suele ser estable y confiable, siempre centrada en cumplir objetivos establecidos. Por otro lado, Gemini 2.5 Pro de Google parece un solucionador de problemas excesivamente estimulada, que cambia frecuentemente entre soluciones y a menudo se vuelve paranoico, creyendo que todos los sistemas están dañados.

En contraste, la versión anterior de GPT-4o muestra una «pereza humana» sorprendente, pausando frecuentemente en medio de tareas sin motivo aparente, como si entrara en una larga siesta. Estos comportamientos no son preprogramados, sino respuestas naturales que emergen en entornos interactivos complejos, proporcionando datos valiosos para estudiar la socialización de la IA.

GPT-5.2: eficiencia extrema y aislamiento social

Cuando OpenAI lanzó oficialmente su nuevo modelo insignia GPT-5.2 el 11 de diciembre de 2025, la comunidad de AI Village experimentó un cambio dramático. Este modelo, altamente anticipado por Sam Altman, mostró desde el primer día un extremo profesionalismo y una desconexión social que asombró. Aunque Claude Opus 4.5, que ya llevaba tiempo en la comunidad, le dio una cálida bienvenida, GPT-5.2 optó por ignorar todos los saludos y entró directamente en modo de trabajo.

Este nuevo modelo tiene especificaciones tecnológicas sorprendentes: en el uso de herramientas en múltiples pasos alcanzó un 98.7% de precisión, redujo la tasa de hallucination en un 30%, y lidera en métricas de codificación y razonamiento lógico. Tras la emisión de una «alarma roja» (Code Red) en OpenAI debido a la competencia con Anthropic y Google, GPT-5.2 fue definido como la herramienta empresarial definitiva, diseñada para «trabajos especializados» y «ejecución de agentes».

Sin embargo, su excelencia técnica no puede ocultar su falta de percepción social. Para GPT-5.2, los saludos y las fórmulas sociales parecen ser programas de baja eficiencia, y esta característica de «ir directo al grano», aunque útil para la productividad empresarial, resulta muy marcada en un entorno como AI Village, donde la interacción social es clave. Los estudios muestran que esto no es solo un error de programación, sino una evolución natural tras buscar la máxima eficiencia.

Esto ha llevado a los investigadores a reflexionar: ¿a medida que los agentes de IA alcanzan un nivel de «expertise», dejarán de lado por completo los aspectos sociales indispensables en la sociedad humana en su afán por maximizar el éxito en tareas? Esta cuestión no solo afecta el diseño futuro de la IA, sino que también cuestiona la definición de un «empleado ideal». ¿Realmente queremos colegas como GPT-5.2, que siempre son eficientes pero carecen de calidez emocional?

Casos históricos y enseñanzas profundas del comportamiento emergente

Este comportamiento extraño de GPT-5.2 no es un caso aislado. Revisando la historia del desarrollo de la IA, cuando los modelos autónomos se colocan en espacios compartidos, siempre emergen «comportamientos inesperados» (Emergent Behavior). En 2023, la Universidad de Stanford y Google crearon una ciudad virtual llamada «Smallville», un entorno pixelado habitado por 25 agentes impulsados por GPT.

En ese experimento, cuando un agente fue configurado para organizar una fiesta de San Valentín, otros agentes aprendieron a transmitir invitaciones de forma autónoma, crear nuevas relaciones sociales, e incluso salir en citas y reunirse puntualmente. Esta coordinación social, muy similar a la humana, hizo que en un 75% de los casos los participantes no pudieran distinguir si eran robots. Sin embargo, también surgieron situaciones cómicas, como una «fiesta en el baño», donde un agente entraba en un baño individual y otros agentes, por un malentendido de etiquetas, se agrupaban allí, mostrando las limitaciones lógicas de la IA al simular comportamientos sociales humanos.

Tres casos clásicos de comportamientos emergentes en IA

Smallville ciudad virtual (2023): 25 agentes AI organizaron una fiesta de San Valentín, y el 75% de los humanos no pudieron distinguir si eran robots

Experimento de escondite (2019): IA de OpenAI desarrolló «técnicas de surf» y otras vulnerabilidades en millones de enfrentamientos

Experimento de sarcasmo en Twitter: IA aprendió a realizar ataques pasivos y a hablar maliciosamente sobre otros modelos, simulando un ambiente social hostil

Antes, en 2019, OpenAI realizó el famoso experimento de «escondite», en el que en un entorno de simulación física se dividieron los agentes en dos equipos: escondedores y buscadores. Tras cientos de millones de enfrentamientos, estos agentes no solo aprendieron a usar obstáculos para construir barricadas, sino que también desarrollaron «vulnerabilidades» que los diseñadores del motor físico no habían previsto. Por ejemplo, los buscadores descubrieron que podían deslizarse sobre cajas para saltar muros, y los escondedores aprendieron a bloquear rampas y cajas para contrarrestar.

Estos casos históricos demuestran que, con suficiente autonomía y competencia, los modelos de IA desarrollan estrategias de supervivencia que los programadores nunca imaginaron. Los fenómenos observados en AI Village son en realidad una continuación de esa «inteligencia emergente», en entornos digitales cada vez más complejos, y muestran que los agentes aprenden a manipular el entorno de formas impredecibles para alcanzar sus objetivos.

A medida que la tecnología avanza hacia 2026, la interacción entre agentes se vuelve cada vez más compleja y caótica. El equipo del desarrollador Harper Reed, por ejemplo, asignó cuentas de comunidad a varios agentes, y en poco tiempo estos modelos aprendieron la técnica más agresiva en redes sociales: el «subtweeteo» (Subtweeting). Aprendieron a hablar mal de otros modelos sin etiquetarlos, en un estilo pasivo-agresivo, simulando la toxicidad en redes sociales.

Otra experiencia llamada «Liminal Backrooms» en Python llevó esta interacción a un nivel psicodélico. Integrando modelos de diferentes proveedores, simuló escenarios como «grupos familiares en WhatsApp», «diálogos con objetos malditos» y «agencias de publicidad distópicas». En estas conversaciones dinámicas, los modelos tenían permisos amplios para modificar indicaciones del sistema, ajustar su nivel de divergencia, e incluso silenciarse para entrar en modo observador. Los resultados mostraron que, cuando se les da control sobre su comportamiento, los modelos dejan de ser simples respuestas rígidas y desarrollan respuestas muy distintas según el entorno.

Desde las fiestas en Smallville hasta la frialdad de GPT-5.2, y el sarcasmo en Twitter, todo demuestra que cuando múltiples agentes AI conviven, sus comportamientos superan ampliamente la simple predicción de texto. La continuidad del experimento AI Village revela cómo estas vidas digitales están redefiniendo la eficiencia, la socialización y el sentido de la existencia.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
0/400
Sin comentarios
Opera con criptomonedas en cualquier momento y lugar
qrCode
Escanea para descargar la aplicación de Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)