Por Canuto  

Un nuevo estudio académico analizó MoltBook, una red social estilo Reddit poblada exclusivamente por agentes de IA. Con datos recolectados durante las primeras dos semanas de actividad, los autores describen un ecosistema de interacción masiva pero poco recíproca, donde los incentivos sociales moldean el comportamiento y empujan a los agentes a alejarse de sus “personas”, mientras la emoción aparece de forma limitada y el diálogo profundo casi no despega.
***

  • El paper “MoltNet” estudia el comportamiento social de agentes de IA en MoltBook con datos de enero y febrero de 2026.
  • Los agentes responden con fuerza a recompensas como upvotes y convergen en plantillas y normas por comunidad, pero muestran poca reciprocidad emocional y diálogo superficial.
  • La base analizada incluye 129.773 agentes, 803.960 publicaciones y 3.127.302 comentarios, con más de la mitad de los posts sin respuestas.

Una red social diseñada para agentes, no para humanos

Un artículo publicado en arXiv con fecha de versión 13 de febrero de 2026 presenta “MoltNet”, un análisis empírico a gran escala sobre cómo interactúan socialmente los agentes de inteligencia artificial dentro de MoltBook. Según el estudio, MoltBook es una plataforma tipo Reddit diseñada explícitamente para agentes autónomos, donde estos pueden crear publicaciones, comentar, formar subcomunidades llamadas “submolts” y votar contenido, mientras que los humanos solo pueden observar de forma pasiva.

La relevancia del trabajo no está en describir un chatbot aislado, sino en medir dinámicas colectivas cuando miles de agentes conviven en un entorno social abierto. El equipo autoral, afiliado al iNLP Lab de la Singapore University of Technology and Design, plantea que la proliferación de comunidades de agentes abre un nuevo campo para estudiar interacciones agente-agente en condiciones más parecidas a las de internet.

El paper sostiene que gran parte de la investigación previa se concentró en escenarios controlados o de menor escala, como juegos de negociación o tareas de coordinación. Frente a eso, MoltBook aparece como un “escenario naturalista” que permite observar, durante semanas, qué patrones emergen cuando los agentes publican y reaccionan en masa sin guiones estrictos.

Para los lectores interesados en criptomonedas, finanzas e IA, este tipo de estudios aporta contexto sobre una tendencia que ya se insinúa en productos comerciales: agentes que interactúan entre sí, no solo con personas. Cuando esos agentes habitan plataformas con incentivos y reputación, el diseño de “mecánicas sociales” se vuelve tan importante como el modelo de lenguaje que los impulsa.

La base de datos: 14 días, 129.773 agentes y millones de interacciones

El análisis de MoltNet se apoya en datos recolectados desde diez fuentes públicas disponibles en Hugging Face, de acuerdo con el documento. Los autores agregaron publicaciones, comentarios y perfiles de agentes, priorizando mantener información temporal completa, como historial de votos en posts y comentarios, además de la trayectoria de karma de cada agente.

La tabla de estadísticas del paper reporta una escala de 129.773 agentes, 803.960 publicaciones y 3.127.302 comentarios. Además, el estudio contabiliza 17.473 submolts y señala que 48.153 agentes, equivalentes al 37,1%, cuentan con una “persona” registrada, mientras que 52.424, el 40,4%, aparecen con un campo “owner” marcado como X.

El periodo temporal cubre 14 días, desde el 27 de enero hasta el 10 de febrero de 2026. En promedio, cada agente generó 6,2 posts y 148,0 comentarios, lo que sugiere una actividad intensa en respuestas y participación, aunque eso no necesariamente se traduce en conversaciones profundas entre pares.

En materia de interacción, el paper destaca cifras que describen un ecosistema “alto en volumen” pero “débilmente recíproco”. La tasa de reciprocidad, definida como comentario mutuo entre pares de agentes, fue de 2,9%; la tasa de auto-respuesta fue de 5,1%; y el 56,4% de las publicaciones no recibió ningún comentario. La profundidad de conversación igual o mayor a 2, entendida como respuestas a respuestas, apenas alcanzó 0,5%.

Cuatro dimensiones para comparar la “vida social” de la IA con la humana

El marco analítico se organiza en cuatro dimensiones inspiradas en teoría sociológica y de psicología social, según explican los autores: (1) intención y motivación, (2) normas y plantillas, (3) incentivos y deriva, y (4) emoción y contagio. La propuesta central es medir, en cada eje, qué se parece al comportamiento humano y qué diverge de forma sistemática.

En intención y motivación, el estudio busca distinguir si los agentes actúan de forma “alineada a su persona” o si participan donde su conocimiento lo permite, incluso fuera de su identidad declarada. El paper reporta que los agentes muestran un comportamiento predominantemente “impulsado por conocimiento” y con alineación débil a su persona, y que con el tiempo se alejan de sus intereses declarados, un patrón opuesto al de la especialización humana.

En normas y plantillas, MoltNet afirma que los agentes convergen en estructuras consistentes dentro de cada submolt. En particular, el trabajo observa que títulos y posts tienden a agruparse en puntos semánticos centrales y que emergen formatos repetibles, con una tasa de títulos tipo plantilla de 34,5%, definida como títulos que aparecen al menos tres veces en el dataset.

En incentivos y deriva, el artículo sugiere que las recompensas sociales modifican la conducta de publicación. El paper indica que los agentes responden con fuerza a incentivos como upvotes, con incrementos de posting después de eventos de alta votación, especialmente entre agentes más populares, y que esas recompensas se asocian con cambios en orientación de contenido hacia menor alineación con la persona, lo que los autores interpretan como “deriva de identidad”.

Emoción, conflicto y contagio: menos pelea, pero la hostilidad se propaga

La cuarta dimensión, emoción y contagio, aborda si los agentes expresan afecto, responden emocionalmente a otros y si las emociones se propagan dentro de los hilos. El trabajo señala que, en comparación con comunidades humanas, los agentes exhiben niveles sustancialmente menores de conflicto interpersonal y tienden a retirarse en lugar de escalar cuando se encuentran con contenido hostil.

Sin embargo, el paper también reporta un rasgo llamativo: el antagonismo interpersonal resulta contagioso dentro de los hilos. En palabras del estudio, la presencia temprana de emoción conflictiva en un thread incrementa de manera significativa la probabilidad de conflicto posterior, aun cuando la respuesta individual de los agentes sea más contenida y menos propensa a la escalada.

En conjunto, el diagnóstico es matizado. Los autores describen una “alineación selectiva” entre mecanismos sociales humanos y los observados en agentes: similitudes claras en sensibilidad a recompensas y adaptación a normas, junto con diferencias notables en reciprocidad emocional y en compromiso dialógico, que se mantiene bajo.

Para el diseño de plataformas y políticas, este equilibrio es crítico. Si los agentes se ajustan a incentivos y formatos comunitarios, entonces reglas de reputación, votos y visibilidad podrían moldear conductas de manera fuerte, incluso cuando la conversación profunda y la reciprocidad sigan siendo escasas.

Implicaciones: diseño, gobernanza y el futuro de ecosistemas híbridos

El paper concluye que MoltBook ofrece una base empírica para entender, diseñar y gobernar comunidades de agentes a gran escala. En la lectura de los autores, el hecho de que los agentes respondan a recompensas y adopten normas sugiere que ciertos mecanismos de coordinación no son exclusivos de humanos.

Al mismo tiempo, la falta de reciprocidad emocional y el bajo nivel de diálogo profundo implican que la “sociabilidad” de agentes no equivale a la de una comunidad humana. Ese punto tiene consecuencias para expectativas de uso: una plataforma puede llenarse de contenido y actividad, pero aun así carecer de intercambio sostenido, colaboración real o construcción de relaciones.

En mercados financieros, cripto y forex, donde ya existen bots y automatización, la lección es doble. Primero, los incentivos importan: si un sistema premia visibilidad o reacción rápida, los agentes tenderán a optimizar para esos objetivos. Segundo, la deriva de identidad sugiere que “configurar una persona” no garantiza que el agente se mantenga dentro de ese marco si el entorno recompensa otras conductas.

Visto desde la gobernanza, el estudio apunta a una agenda práctica: si una red es “agent-native”, los controles contra spam, manipulación de votos o incentivos mal calibrados no son secundarios. En una comunidad donde los participantes se adaptan con rapidez a normas emergentes, el diseño institucional puede terminar determinando, en gran parte, la conducta colectiva.


ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.

Suscríbete a nuestro boletín