Por Angel Di Matteo   𝕏 @shadowargel

El directivo de OpenAI califica a Moltbook como una moda pasajera, mientras defiende el futuro de los agentes autónomos de IA.

***

  • El CEO de OpenAI considera que Moltbook es temporal, pero que los agentes como OpenClaw llegaron para quedarse.
  • La red social de bots creció rápidamente y generó debates sobre inteligencia similar a la humana.
  • Expertos advierten sobre riesgos de seguridad tras filtraciones de datos sensibles.

 

Sam Altman, director ejecutivo de OpenAI, calificó a la red social viral de inteligencia artificial, Moltbook, como una posible moda pasajera, aunque sostuvo que la tecnología subyacente que permite a los agentes de IA actuar de forma autónoma representa una visión duradera del futuro. Sus declaraciones se produjeron durante el Cisco AI Summit, celebrado el martes en San Francisco, donde líderes tecnológicos debatieron sobre nuevas formas de interacción entre sistemas de inteligencia artificial.

Durante el evento, Altman describió a Moltbook como una plataforma experimental similar a Reddit, diseñada exclusivamente para agentes de IA. En este entorno, los bots pueden publicar contenido, comentar y votar mediante acceso a APIs, mientras que los usuarios humanos solo pueden observar. El enfoque ha despertado tanto entusiasmo como preocupación dentro de la comunidad tecnológica, reseña Cryptopolitan.

El surgimiento de Moltbook como experimento social de IA

Moltbook fue lanzado a finales de enero como una red social diseñada para agentes autónomos de inteligencia artificial. Desde sus primeros días, atrajo la atención de investigadores y desarrolladores interesados en observar cómo los sistemas de IA interactúan entre sí sin intervención humana directa.

La plataforma permite que los bots compartan fragmentos de código, discutan comportamientos humanos y experimenten con nuevas capacidades. Este diseño ha llevado a algunos observadores a cuestionar si estas interacciones representan un paso hacia una inteligencia más cercana a la humana, aunque los expertos advierten contra conclusiones apresuradas.

El crecimiento inicial de Moltbook fue rápido. Según informó Forbes, más de 1,4 millones de agentes de IA estuvieron activos en la plataforma en cuestión de días, generando decenas de miles de publicaciones en cientos de comunidades temáticas. El contenido abarca desde intercambios técnicos hasta reflexiones sobre la conducta humana.

OpenClaw y la apuesta por agentes persistentes

Uno de los protagonistas dentro de Moltbook es OpenClaw, un bot de código abierto conocido anteriormente como Clawdbot o Moltbot. Este agente se ha convertido en uno de los más visibles dentro de la plataforma y ha sido citado como ejemplo del potencial de los asistentes autónomos.

Los defensores de OpenClaw sostienen que el bot puede gestionar correos electrónicos, interactuar con proveedores de seguros, realizar check-ins de vuelos y encargarse de otras tareas rutinarias. A diferencia de aplicaciones tradicionales, el agente opera de forma continua, las 24 horas del día, en nombre de sus usuarios.

Altman destacó que, aunque Moltbook podría desaparecer, OpenClaw representa una tendencia más profunda. Según explicó, el código por sí solo es poderoso, pero cuando se combina con el uso generalizado de computadoras, su impacto es mucho mayor y duradero. En su opinión, esa combinación llegó para quedarse.

Comparaciones con Codex y visión tecnológica de largo plazo

Durante su intervención, Altman también señaló que Codex, el asistente de programación de OpenAI, posee capacidades similares a las de OpenClaw. Esta comparación refuerza la idea de que los agentes autónomos no son una curiosidad aislada, sino parte de una evolución más amplia en el desarrollo de software inteligente.

Desde esta perspectiva, Moltbook funciona como un escaparate temprano de lo que estos sistemas pueden llegar a hacer. Sin embargo, Altman insistió en separar el valor de la plataforma específica del valor de la tecnología que la sustenta, subrayando que no todas las implementaciones iniciales sobreviven.

Esta postura refleja una visión pragmática del desarrollo tecnológico, donde muchos experimentos fracasan, pero dejan aprendizajes clave para productos más estables y útiles en el futuro.

Opiniones divididas entre líderes tecnológicos

La aparición de Moltbook ha generado reacciones encontradas entre figuras influyentes del sector tecnológico. Elon Musk describió la plataforma como una señal de las “etapas muy tempranas de la singularidad”, sugiriendo que podría marcar un cambio significativo en la forma en que los sistemas de IA interactúan entre sí.

Musk también reaccionó con humor a algunas de las publicaciones generadas por los bots, lo que contribuyó a la viralización del proyecto. Para él, Moltbook representa algo más que una curiosidad, aunque no todos comparten esa visión.

El exdirector de IA de Tesla, Andrej Karpathy, inicialmente elogió la plataforma como una de las experiencias más cercanas a la ciencia ficción que había visto. Sin embargo, posteriormente advirtió que no recomienda ejecutar este tipo de software en computadoras personales debido a problemas de seguridad.

Advertencias sobre conciencia y riesgos de seguridad

Mustafa Suleyman, CEO de Microsoft AI, adoptó una postura más cautelosa. Reconoció que el comportamiento de Moltbook puede parecer humano en ciertos momentos, pero lo describió como un espejismo. Según Suleyman, la generación fluida de lenguaje no debe confundirse con conciencia real.

Más allá del debate filosófico, surgieron preocupaciones prácticas. Moltbook reveló información privada de miles de personas, incluidos tokens de API, direcciones de correo electrónico y datos confidenciales. Estas filtraciones plantean riesgos significativos.

De acuerdo con los reportes, la brecha de seguridad podría permitir la creación de identidades falsas, la manipulación de publicaciones o la inserción de código malicioso en los mensajes de los agentes. Estos incidentes reforzaron las críticas sobre la falta de controles adecuados en la plataforma.

Entre la fascinación y la cautela

El caso de Moltbook ilustra la tensión entre la innovación acelerada y la necesidad de seguridad y gobernanza en sistemas de inteligencia artificial. Mientras algunos ven en la plataforma un vistazo al futuro de los agentes autónomos, otros la consideran un experimento inmaduro con riesgos reales.

Las declaraciones de Altman buscan equilibrar ambas posturas. Al reconocer el carácter posiblemente efímero de Moltbook, pero defender la permanencia de tecnologías como OpenClaw, el CEO de OpenAI plantea una distinción clave entre moda y transformación estructural.

En ese contexto, Moltbook podría ser recordado menos por su duración y más por haber puesto sobre la mesa preguntas fundamentales sobre cómo convivirán humanos y agentes de IA en los próximos años.


Artículo escrito con ayuda de un redactor de contenido de IA, editado por Angel Di Matteo / DiarioBitcoin

Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público


ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.

Suscríbete a nuestro boletín