Anthropic abrió a usuarios gratuitos de Claude su función de “memoria” para recordar contexto entre conversaciones, en un intento por retener el fuerte flujo de nuevos usuarios que llegó tras su choque con el Departamento de Defensa de EE. UU. La decisión ocurre mientras la compañía enfrenta presiones políticas y comerciales, y en una semana marcada por un apagón de varias horas y por el avance de OpenAI dentro de redes clasificadas del Pentágono.
***
- Anthropic extendió a usuarios gratuitos de Claude una función de memoria antes reservada a suscriptores de pago.
- La empresa reportó que los usuarios activos gratuitos crecieron más de 60% y los registros diarios se cuadruplicaron desde enero.
- El contexto incluye una orden del presidente Donald Trump para retirar Claude de agencias y un movimiento de OpenAI para llevar modelos a redes clasificadas del DoD.
El chatbot de inteligencia artificial Claude, de Anthropic PBC, ahora podrá recordar contexto a lo largo de conversaciones también para usuarios gratuitos. La compañía anunció que la función de memoria, antes disponible solo para suscriptores de pago, comenzó a ofrecerse a partir del lunes.
El cambio llega mientras Anthropic busca sostener una oleada reciente de interés por sus productos de consumo. La empresa describió los últimos días como un periodo de “demanda sin precedentes”, en un entorno de competencia intensa con ChatGPT, el servicio de OpenAI.
La memoria se ha convertido en una característica clave en la carrera por retener usuarios. En términos prácticos, permite que el chatbot conserve detalles previos y mantenga continuidad sin que el usuario repita información en cada interacción.
La memoria como arma competitiva frente a ChatGPT
Anthropic explicó que su herramienta se parece a la que ChatGPT ya ofrece a quienes están en el plan gratuito. Con esa comparación, la compañía deja claro el objetivo: reducir fricciones para que un usuario de ChatGPT pruebe Claude y se quede.
Además de habilitar memoria para el plan gratis, Anthropic está facilitando que nuevos suscriptores importen a Claude historiales previos de otros chatbots de IA, incluyendo ChatGPT. El método, según se informó, es simple: copiar y pegar.
Ese tipo de “portabilidad” del historial apunta a un punto sensible en los chatbots modernos. A medida que la gente construye rutinas, preferencias y proyectos dentro de una herramienta, el costo de cambiar de plataforma aumenta.
En otras palabras, si un servicio logra transportar el contexto acumulado, tiene más probabilidades de capturar usuarios que ya dependen de conversaciones previas. En un mercado donde la diferenciación técnica se estrecha, la experiencia de uso se vuelve decisiva.
El choque con el Departamento de Defensa y el impacto en la demanda
La actualización ocurre después de que Anthropic chocara con el Departamento de Defensa de Estados Unidos por el uso potencial de su tecnología. El foco de la disputa fue la posibilidad de emplearla para vigilancia masiva y para el desarrollo de armamento autónomo.
Según la cobertura de Bloomberg difundida por Yahoo Finance, esa controversia coincidió con un aumento significativo en la atención hacia los productos de consumo de la empresa. Anthropic señaló que la llegada de nuevos usuarios creó una presión inusual sobre su servicio.
La tensión escaló el viernes, cuando el presidente Donald Trump ordenó a agencias del gobierno de Estados Unidos eliminar a Claude de sus sistemas. Ese mismo frente se agravó cuando el Pentágono calificó a Anthropic como un riesgo para la cadena de suministro.
Ambas decisiones amenazan el negocio de la compañía, porque las compras gubernamentales y los contratos asociados suelen ser relevantes para proveedores tecnológicos. En paralelo, esa misma crisis parece haber amplificado el interés del público general por Claude.
Crecimiento de usuarios y un apagón en medio de “demanda sin precedentes”
Anthropic informó que los usuarios activos gratuitos de Claude crecieron más de 60%. También indicó que los registros diarios se han cuadruplicado desde enero, una cifra que sugiere un cambio fuerte en su base de usuarios en pocos meses.
Sin embargo, el aumento de tráfico también mostró costos operativos. El lunes, Claude experimentó una interrupción del servicio durante varias horas en medio de lo que la empresa describió como una “demanda sin precedentes” durante la última semana.
La compañía indicó que el problema se resolvió a media mañana, hora de Nueva York. Aun así, el episodio recuerda un riesgo común en plataformas de IA: cuando el crecimiento se acelera, la confiabilidad del servicio se vuelve un factor de reputación.
Para el usuario final, una caída prolongada puede ser el motivo para regresar a un competidor. Para Anthropic, el reto es que su nueva propuesta de valor, como la memoria para el plan gratuito, venga acompañada de estabilidad bajo cargas elevadas.
OpenAI, el Pentágono y el efecto boicot en la competencia
Mientras Anthropic lidiaba con su disputa con el gobierno, OpenAI anunció un movimiento en la dirección opuesta. La empresa dijo que desplegará sus propios modelos de IA dentro de la red clasificada del Departamento de Defensa.
Ese anuncio provocó reacciones de usuarios que solicitaron un boicot a ChatGPT. En este contexto, la rivalidad deja de ser solo sobre funciones o calidad de respuestas, y pasa a incluir posturas sobre usos militares y de seguridad.
Para lectores menos familiarizados con este debate, vale una aclaración: las redes clasificadas del DoD son entornos con controles estrictos, donde se procesan y almacenan datos sensibles. Operar modelos allí supone un grado alto de confianza y acuerdos específicos.
Anthropic y OpenAI quedan, así, posicionadas en narrativas distintas ante el público. Una enfrenta restricciones y señalamientos de riesgo, mientras la otra avanza hacia despliegues dentro de infraestructura gubernamental, lo que reconfigura percepciones y lealtades de usuarios.
Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público.
Este artículo fue escrito por un redactor de contenido de IA y revisado por un editor humano para garantizar calidad y precisión.
ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.
Suscríbete a nuestro boletín
Artículos Relacionados
Por qué las criptomonedas podrían estar hechas más para agentes de IA que para humanos
Tribunal estadounidense desestima demanda colectiva en contra de Uniswap Labs
Aave aprueba por margen mínimo “Aave will win” y estalla disputa por votos ligados a Aave Labs