Anthropic presentó una nueva función experimental para Claude Managed Agents que promete algo parecido a “soñar”: revisar sesiones pasadas, detectar patrones valiosos y guardar recuerdos útiles para tareas futuras. La propuesta apunta a resolver uno de los límites más notorios de los modelos de IA, especialmente en proyectos largos y coordinados entre múltiples agentes.
***
- Anthropic introdujo “dreaming” como una vista previa de investigación para Claude Managed Agents.
- La función revisa sesiones y memorias previas para identificar patrones, errores repetidos y preferencias compartidas.
- La empresa también amplió la disponibilidad de otras funciones experimentales y duplicará límites de tasa para planes Pro y Max.
Anthropic presentó una nueva función para Claude Managed Agents llamada “dreaming”, un proceso que la empresa describe como una forma de revisar eventos recientes e identificar qué información merece ser guardada en la memoria para tareas futuras. La novedad fue anunciada durante su conferencia para desarrolladores Code with Claude, celebrada en San Francisco.
La idea central no es que el modelo sueñe en sentido literal, sino que ejecute revisiones programadas sobre sesiones anteriores y almacenes de memoria. Con ese análisis, el sistema selecciona recuerdos específicos que pueden ayudar en interacciones posteriores, especialmente cuando el trabajo se extiende durante minutos, horas o incluso más.
El anuncio apunta a uno de los problemas más importantes en la IA generativa actual: la limitación de la ventana de contexto. Aunque los modelos pueden procesar grandes cantidades de texto, no conservan todo de forma indefinida dentro de una misma tarea. Por eso, parte de la información relevante puede perderse a medida que un proyecto se vuelve más largo o más complejo.
En ese contexto, Anthropic intenta reforzar las capacidades de memoria de sus agentes administrados, una modalidad que ofrece a los desarrolladores una alternativa de mayor nivel frente al uso directo de la API de Messages. Según explicó la empresa, se trata de un arnés de agentes preconstruido y configurable que funciona sobre infraestructura administrada.
Qué hace “dreaming” dentro de Claude
La función “dreaming” se encuentra por ahora en vista previa de investigación y está limitada a los Managed Agents dentro de la plataforma Claude. No está disponible para todos los desarrolladores de forma general, aunque quienes tengan interés pueden solicitar acceso.
Anthropic describe este sistema como un proceso recurrente y periódico. En lugar de limitarse a resumir una conversación individual, revisa sesiones previas y memorias compartidas entre distintos agentes para detectar elementos importantes que merezcan preservarse a futuro.
Ese matiz es clave. En muchos sistemas de chat, los modelos usan un mecanismo de compactación que resume conversaciones largas y elimina información secundaria de la ventana de contexto, mientras conserva lo esencial para la tarea en curso. Sin embargo, ese método suele operar dentro de una sola conversación y con un solo agente.
Con “dreaming”, la empresa busca ir un paso más allá. El sistema puede analizar información entre agentes, identificar patrones comunes y reorganizar la memoria de un modo que, en teoría, mantenga una mayor densidad de señal conforme el trabajo evoluciona.
Anthropic explicó que los usuarios podrán optar por un proceso automático o revisar directamente los cambios en la memoria. Eso sugiere un enfoque mixto entre automatización y supervisión humana, algo relevante en entornos donde la precisión y la trazabilidad pesan más que la velocidad pura.
La empresa resumió así el propósito de la función: “Dreaming saca a la superficie patrones que un solo agente no puede ver por sí mismo, incluidos errores recurrentes, flujos de trabajo hacia los que convergen los agentes y preferencias compartidas en un equipo. También reestructura la memoria para que mantenga una alta densidad de señal a medida que evoluciona. Esto es especialmente útil para trabajos de larga duración y la orquestación multiagente”.
Por qué importa la memoria en sistemas multiagente
Para lectores menos familiarizados con el tema, los sistemas multiagente son configuraciones en las que varios agentes de IA colaboran para completar una tarea. En lugar de depender de un solo modelo que haga todo, el trabajo puede dividirse en subtareas, revisión, planificación, búsqueda y ejecución.
Ese enfoque resulta atractivo para proyectos complejos, pero también eleva el reto de conservar contexto útil. Si varios agentes interactúan durante largos periodos, pueden aparecer repeticiones, inconsistencias o pérdidas de información importante, sobre todo si cada uno opera con un contexto limitado.
Ahí es donde una capa de memoria mejor estructurada puede marcar diferencia. Si el sistema detecta que ciertos errores se repiten, que varios agentes convergen hacia un mismo flujo de trabajo o que un equipo humano mantiene preferencias constantes, esa información puede convertirse en una guía para interacciones futuras.
La propuesta de Anthropic se alinea con una tendencia más amplia en la industria de IA: construir asistentes menos efímeros y más persistentes. No se trata solo de responder bien a un mensaje aislado, sino de sostener proyectos largos, recordar instrucciones relevantes y adaptar el comportamiento con base en experiencias anteriores.
Según informó Ars Technica, la empresa plantea este proceso como una forma de resolver una debilidad estructural de los modelos de lenguaje grandes. Esa debilidad no se relaciona solo con la calidad de las respuestas, sino con la dificultad de retener y priorizar información cuando el trabajo se alarga demasiado.
Managed Agents, outcomes y orquestación
Anthropic enmarcó “dreaming” dentro de su oferta de Managed Agents. Esta capa de producto está diseñada para casos en los que varios agentes deben trabajar sobre una tarea o proyecto hasta alcanzar un punto final, incluso si eso toma varios minutos u horas.
La compañía también anunció que dos funciones experimentales que ya había mostrado antes, “outcomes” y “multiagent orchestration”, pasarán a estar disponibles de forma más amplia. Aunque el anuncio resumido no detalló su funcionamiento técnico en profundidad, su ampliación sugiere que Anthropic quiere consolidar este enfoque de agentes coordinados como parte central de su plataforma.
En términos prácticos, la combinación de orquestación multiagente, outcomes y memoria revisada por “dreaming” apunta a sistemas de IA menos fragmentados. La visión parece ser que los agentes no solo ejecuten tareas, sino que aprendan patrones de trabajo útiles dentro de proyectos continuos.
Eso puede resultar relevante para empresas, equipos de desarrollo y organizaciones que usan IA en flujos prolongados. En esos entornos, la diferencia entre un agente que responde bien una vez y uno que conserva aprendizajes útiles a lo largo del tiempo puede ser significativa.
Respuesta a las quejas por límites de uso
Junto con las novedades de producto, Anthropic anunció que duplicará los límites de tasa para los suscriptores de sus planes Pro y Max. La medida llega en medio de frustraciones de usuarios que venían señalando restricciones de uso mientras la infraestructura de cómputo de la empresa luchaba por seguir el ritmo de la demanda.
Ese detalle añade contexto importante al anuncio. No solo se trata de nuevas funciones avanzadas para desarrolladores, sino también de una respuesta a tensiones operativas derivadas del crecimiento de la plataforma. Cuando la demanda aumenta más rápido que la capacidad de cómputo, la experiencia del usuario puede deteriorarse incluso si el producto mejora en otros frentes.
La decisión de elevar esos límites sugiere que Anthropic intenta equilibrar dos objetivos: ampliar las capacidades de Claude y, al mismo tiempo, aliviar parte del malestar de usuarios de pago que esperaban mayor disponibilidad. Ars Technica señaló que la empresa tomó esa decisión precisamente como respuesta a la frustración acumulada.
En conjunto, el anuncio muestra a Anthropic empujando a Claude hacia un modelo de uso más persistente, más coordinado y con memoria mejor curada. Aunque “dreaming” todavía está en fase de investigación, su dirección estratégica es clara: hacer que los agentes no solo procesen información, sino que también aprendan qué vale la pena recordar.
Si esa apuesta funciona, podría ayudar a mejorar tareas de larga duración donde hoy los modelos suelen perder matices, repetir errores o depender demasiado de recordatorios constantes del usuario. Por ahora, la función sigue siendo experimental, pero refleja cómo la competencia en IA se desplaza desde el simple rendimiento del modelo hacia capacidades más sofisticadas de memoria, coordinación y continuidad.
Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público.
Este artículo fue escrito por un redactor de contenido de IA y revisado por un editor humano para garantizar calidad y precisión.
ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.
Suscríbete a nuestro boletín
Artículos Relacionados
Empresas
Nvidia y Corning abrirán tres fábricas ópticas en EE. UU. para impulsar la infraestructura de IA
China
DeepSeek se acerca a una valoración de USD $45.000 millones con apoyo de un gran fondo estatal chino
IA
Google refuerza su búsqueda con IA y suma consejos de Reddit y foros
IA