Por Angel Di Matteo   𝕏 @shadowargel

La controversia por el uso gubernamental de la inteligencia artificial está reconfigurando el mapa de asistentes: Claude, de Anthropic, trepó al primer lugar de apps gratuitas en EE. UU. mientras más usuarios se alejan de ChatGPT tras el anuncio de un acuerdo de OpenAI con el Pentágono.

***

  • Anthropic rechazó que el Departamento de Defensa use sus modelos para vigilancia masiva doméstica o armas totalmente autónomas, lo que detonó una reacción política en EE. UU.
  • Tras el anuncio de OpenAI de un acuerdo con el Pentágono, se intensificó el debate sobre privacidad y ética, y Claude superó a ChatGPT en el ranking de la App Store en EE. UU.
  • Claude reportó máximos históricos: registros diarios récord, más de 60% de crecimiento de usuarios gratuitos desde enero y suscriptores pagos que se han más que duplicado en 2026

 

Muchos usuarios están cambiando de ChatGPT a Claude tras una serie de controversias alrededor de OpenAI y su producto estrella. La discusión no se limita a funciones o precios: el foco está en la relación entre proveedores de IA y el aparato de defensa de Estados Unidos, además de las implicaciones para la privacidad y el uso ético de los modelos.

El punto de inflexión llegó cuando Anthropic, la empresa detrás de Claude, se negó a permitir que el Departamento de Defensa utilizara sus modelos de IA para vigilancia masiva doméstica o para armas totalmente autónomas. Para una parte del público, esa negativa se convirtió en una señal de postura corporativa ante un tema sensible, con consecuencias directas en confianza y adopción.

La reacción política fue inmediata. Según lo reportado por TechCrunch, el presidente Trump ordenó a todas las agencias federales que dejaran de usar los productos de Anthropic. El Secretario de Defensa, Pete Hegseth, además anunció planes para designar a la empresa como una amenaza para la cadena de suministro.

El episodio ilustra cómo las decisiones sobre despliegue de IA ya no se juegan solo en el terreno tecnológico. También se definen en el ámbito regulatorio y geopolítico, donde términos como “vigilancia doméstica” o “armas autónomas” elevan el costo reputacional para empresas y usuarios. En paralelo, los consumidores intentan proteger su información y conservar su historial digital cuando cambian de plataforma.

OpenAI anuncia un acuerdo con el Pentágono y crece el debate sobre privacidad

Horas después de la respuesta contra Anthropic, OpenAI anunció su propio acuerdo con el Pentágono. La empresa sostuvo que el trato incluye salvaguardias. Aun así, el anuncio reactivó el debate sobre privacidad y sobre los límites aceptables del uso de la IA en el sector público.

En la práctica, estos acuerdos suelen disparar dudas que impactan al usuario final, incluso si no trabaja con el gobierno. Parte de la preocupación gira en torno a cómo se pueden usar los modelos y qué incentivos aparecen cuando instituciones con grandes presupuestos demandan capacidades de análisis y automatización. El tema también se cruza con la forma en que los asistentes almacenan “memorias” o señales de personalización.

Para lectores nuevos en este debate, conviene separar dos planos: el modelo en sí y el producto de consumo. Un modelo puede entrenarse, ajustarse o implementarse bajo políticas distintas, mientras que las apps administran datos como conversaciones, instrucciones personalizadas y preferencias. Por eso, cuando un usuario migra de un asistente a otro, no solo cambia de interfaz: también cambia de reglas de almacenamiento y de controles sobre su información.

El resultado de esta tensión se notó en el comportamiento de mercado de apps. Claude subió a la cima de las clasificaciones de aplicaciones gratuitas en la App Store de Apple en Estados Unidos, superando a ChatGPT. Ese tipo de señal, aunque parcial, suele reflejar una mezcla de interés mediático, percepción pública y necesidad de alternativas por parte de la audiencia.

Claude crece en registros, usuarios gratuitos y suscripciones

Anthropic aseguró que los registros diarios alcanzaron máximos históricos. También indicó que los usuarios gratuitos aumentaron más de 60% desde enero. Además, los suscriptores pagos se han más que duplicado este año, un indicador fuerte de conversión en medio de la controversia.

En términos de dinámica competitiva, esto sugiere que la discusión ética puede funcionar como catalizador de adopción. No es el único factor, pero sí uno que influye en la disposición de los usuarios a probar otro asistente y, sobre todo, a pagar por funciones avanzadas como memoria, herramientas de productividad o planes de equipo.

El crecimiento de suscriptores pagos también apunta a un cambio de hábitos: usuarios que antes mantenían todo su flujo de trabajo en una sola plataforma ahora están dispuestos a reconstruir o migrar su “contexto” con tal de sentirse más alineados con la postura de una empresa. Ese “contexto” incluye desde temas recurrentes hasta instrucciones que moldean el comportamiento del asistente.

Para comunidades interesadas en IA aplicada a mercados, criptomonedas y finanzas, la portabilidad del contexto se vuelve clave. Quien usa un asistente para research, resúmenes de noticias, bitácoras de trading o seguimiento de portafolios, acumula patrones y preferencias. Perderlos implica fricción. Por eso han ganado relevancia las guías para exportar datos, reimportarlos y, si se desea, cerrar cuentas de forma definitiva.

Cómo exportar tus datos de ChatGPT sin perder tu historial

Romper con ChatGPT no debería significar perder años de memoria digital. La guía reseñada por TechCrunch describe varias formas de conservar y transferir información hacia Claude para que el nuevo asistente se ponga al día con tus preferencias. El primer paso recomendado es revisar lo que el chatbot ha almacenado sobre ti.

Desde ChatGPT, debes ir a Configuración. Luego entra a Personalización y busca la sección de Memoria. Allí selecciona “Administrar” para revisar la información almacenada. La recomendación es actualizar lo que ya no refleje con precisión tus preferencias y, una vez listo, copiar el contenido que deseas conservar.

Otra vía es exportar el historial completo de chats. Debes ir a Configuración, elegir Controles de Datos y seleccionar “Exportar Datos”. ChatGPT compilará tus registros en archivos de texto o JSON y los enviará por correo electrónico. La guía advierte que el proceso puede tardar si tienes mucho historial.

También existe un enfoque manual. Puedes copiar conversaciones clave desde tu historial o pedirle a ChatGPT que resuma tus principales preferencias, temas discutidos con frecuencia y cualquier instrucción personalizada que uses. Esto último puede ser útil si quieres migrar lo esencial sin cargar con grandes volúmenes de texto.

Cómo importar tu contexto en Claude y activar la función de memoria

Una vez que reuniste tus datos, el traslado hacia Claude se plantea como un proceso directo. Debes abrir Claude y entrar a Configuración, luego a Capacidades, y asegurarte de que Memoria esté activada. La guía indica que necesitas estar en los planes Pro, Max, Team o Enterprise para habilitar esta función.

Con la memoria activa, inicia una nueva conversación y usa un mensaje explícito para registrar el contexto. Un ejemplo sugerido es: “Aquí hay un contexto importante que me gustaría que recordaras. Actualiza tu memoria sobre mí con esto”. Luego puedes pegar tus notas o resúmenes directamente en el chat para que Claude los incorpore.

Si vas a usar archivos exportados con historial de chat, la recomendación es no pegar registros sin procesar. En su lugar, permite que Claude revise el material y lo convierta en un resumen de preferencias principales. Esto reduce ruido y evita que el asistente “memorice” detalles irrelevantes o redundantes.

Finalmente, se sugiere verificar con Claude que la información se guardó correctamente. El proceso no es estático: puedes actualizar tus preferencias conforme cambian. En asistentes con memoria, esa revisión periódica ayuda a mantener consistencia y reduce el riesgo de que el sistema conserve instrucciones que ya no aplican.

Cómo eliminar permanentemente tu cuenta de ChatGPT

La guía remarca que cancelar una suscripción no equivale a eliminar tus datos. Para una ruptura completa con ChatGPT, es necesario borrar memorias y configuraciones de personalización y luego eliminar la cuenta. Para muchos usuarios, este punto está ligado a preocupaciones de privacidad y a la intención de minimizar huella digital.

Los pasos comienzan en Configuración. Desde allí, entra a Personalización y selecciona Memoria. Luego elimina cualquier memoria almacenada o configuración de personalización. Con esto reduces el conjunto de datos que el producto mantiene como perfil asociado a tu uso.

Como medida adicional, la guía sugiere escribir “Eliminar toda mi memoria y datos personalizados” como un último comando de chat. Después, debes navegar a la configuración de administración de tu cuenta para eliminarla por completo. El objetivo es evitar que queden rastros de preferencias o datos personalizados asociados a tu perfil.

En un entorno donde la IA se cruza con agendas de seguridad nacional, estas decisiones de los usuarios se vuelven parte de una conversación más amplia sobre control de datos. Más allá de cuál asistente se elija, el episodio subraya la importancia de entender qué se guarda, cómo se exporta y qué pasos concretos hacen falta para borrar información cuando el usuario decide cerrar el ciclo.


Artículo escrito con ayuda de un redactor de contenido de IA, editado por Angel Di Matteo / DiarioBitcoin

Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público


ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.

Suscríbete a nuestro boletín