Un nuevo reporte asegura que la Agencia de Seguridad Nacional de Estados Unidos está utilizando Mythos Preview, el nuevo modelo de IA de Anthropic, a pesar de que el Pentágono mantiene a la empresa bajo una controvertida designación de riesgo en la cadena de suministro. El caso reabre preguntas sobre el uso de inteligencia artificial en defensa, la coordinación entre agencias y la disputa legal entre la startup y el gobierno federal.
***
- Axios reportó que la NSA usa Mythos Preview de Anthropic pese a la designación de riesgo impuesta por el Pentágono.
- La administración Trump había ordenado en febrero a las agencias federales dejar de usar servicios de Anthropic tras desacuerdos sobre salvaguardas militares.
- Anthropic mantiene una batalla judicial con el Departamento de Defensa mientras busca revertir la etiqueta de riesgo.
🚨 La NSA usa Mythos de Anthropic a pesar de la designación de riesgo del Pentágono
La Agencia de Seguridad Nacional de EE. UU. estaría utilizando un modelo de IA controvertido en medio de un conflicto legal con el Departamento de Defensa
Esto reaviva la discusión sobre el… pic.twitter.com/7WYbfGwgbB
— Diario฿itcoin (@DiarioBitcoin) April 20, 2026
La Agencia de Seguridad Nacional de Estados Unidos, conocida como NSA, estaría utilizando Mythos Preview, el nuevo modelo de inteligencia artificial de Anthropic, a pesar de que el Pentágono mantiene sobre la empresa una designación formal de riesgo en la cadena de suministro. El dato, divulgado por Axios y recogido también por Reuters, añade una nueva capa de tensión a una disputa que ya enfrentaba a la compañía con el gobierno federal.
El punto central del caso no es solo tecnológico. También involucra política industrial, seguridad nacional y la capacidad real del Estado para aplicar de forma uniforme sus propias restricciones cuando una herramienta resulta útil para tareas sensibles. En este contexto, el uso de Mythos por parte de una agencia de inteligencia plantea preguntas relevantes sobre la coordinación entre dependencias federales y los criterios empleados para adoptar sistemas de IA en áreas críticas.
Anthropic presentó Mythos Preview a comienzos de abril. La empresa lo describió como un modelo de lenguaje de propósito general, pero con capacidades particularmente destacadas para tareas de seguridad informática. Esa característica ayuda a explicar por qué una agencia como la NSA podría interesarse en probarlo, incluso en medio de un conflicto regulatorio y contractual con el Departamento de Defensa.
Según Reuters, no fue posible verificar de inmediato de forma independiente el reporte sobre el uso del sistema. Aun así, el cruce de informaciones conocidas en los últimos meses sugiere que el caso no es aislado, sino parte de una discusión más amplia sobre qué proveedores de IA pueden participar en programas oficiales vinculados con defensa, inteligencia y ciberseguridad.
Un reporte que expone tensiones dentro del aparato federal
De acuerdo con Yahoo News Canada, que citó a Axios y a dos fuentes con conocimiento del tema, la NSA sería una de las cerca de 40 organizaciones a las que Anthropic otorgó acceso a Mythos Preview. Una de esas fuentes sostuvo además que la herramienta “se está usando más ampliamente dentro del departamento”, una frase que sugiere un alcance mayor que un simple piloto acotado.
Ese detalle resulta especialmente sensible porque en febrero, según la misma versión, el presidente Donald Trump ordenó a todas las agencias gubernamentales dejar de utilizar servicios de Anthropic. La decisión habría respondido a desacuerdos surgidos durante conversaciones contractuales, luego de que la compañía se negara a ceder en determinadas salvaguardas para usos militares.
Si ese mandato seguía vigente al momento del supuesto despliegue en la NSA, el episodio podría interpretarse como una excepción operacional, una laguna regulatoria o una señal de que no todas las entidades aplican de la misma forma las directrices de la Casa Blanca y del Pentágono. Ninguna de esas opciones es menor cuando se trata de herramientas de IA con potencial uso en seguridad nacional.
Para lectores menos familiarizados con este debate, la designación de riesgo en la cadena de suministro suele implicar una alerta formal sobre la conveniencia de contratar o depender de un proveedor. En sectores como defensa o inteligencia, ese tipo de etiquetas puede afectar compras, integraciones técnicas, autorizaciones internas y la reputación institucional de la empresa involucrada.
Qué es Mythos y por qué interesa a agencias de seguridad
Anthropic presentó Mythos Preview como un modelo de lenguaje de propósito general. Sin embargo, la propia empresa destacó que era “sorprendentemente capaz en tareas de seguridad informática”. Esa definición lo ubica en una categoría especialmente atractiva para organismos que necesitan analizar amenazas, automatizar revisiones técnicas o asistir en flujos de trabajo vinculados con defensa cibernética.
La importancia de esta clase de modelos va más allá de la simple generación de texto. En ambientes de ciberseguridad, un sistema de IA puede ayudar a sintetizar grandes volúmenes de información, detectar patrones en incidentes, colaborar en auditorías o asistir a analistas humanos en investigaciones complejas. Por eso, aunque el debate político sea áspero, el incentivo operativo para probar estas herramientas sigue siendo alto.
El caso también ilustra una tensión creciente en el mercado de IA. Empresas tecnológicas que buscan vender a gobiernos suelen intentar equilibrar dos presiones. Por un lado, está la oportunidad comercial y estratégica de participar en contratos estatales. Por otro, aparecen límites éticos, técnicos o reputacionales sobre el tipo de usos militares o de inteligencia que están dispuestas a aceptar.
En el caso de Anthropic, la disputa parece haber surgido precisamente en ese punto. La empresa, según la información citada, se habría negado a aceptar ciertas salvaguardas o condiciones vinculadas con uso militar. Esa negativa habría desencadenado una respuesta oficial más dura, con consecuencias que ahora parecen entrar en contradicción con el supuesto interés operativo de la NSA por Mythos.
Reuniones en la Casa Blanca y una batalla judicial abierta
La noticia sobre la NSA apareció pocos días después de una reunión entre el director ejecutivo de Anthropic, Dario Amodei, y la jefa de gabinete de la Casa Blanca, Susie Wiles, junto con otros funcionarios. Según el reporte citado, el encuentro habría tenido como tema central a Mythos. La Casa Blanca describió después la reunión del viernes como “productiva y constructiva”.
Ese comentario contrastó con otra reacción dentro del mismo gobierno. Cuando periodistas consultaron al presidente Trump sobre la reunión, el mandatario respondió que “no tenía idea” al respecto, según Reuters. La escena refuerza la percepción de que el manejo del caso no ha sido del todo lineal dentro de Washington y que distintas áreas podrían estar operando con niveles desiguales de coordinación.
Mientras tanto, Anthropic sigue inmersa en una batalla legal contra el gobierno de Estados Unidos. En marzo, la empresa presentó demandas contra el Departamento de Defensa en dos tribunales después de que la administración Trump la etiquetara como un “riesgo para la cadena de suministro”. Poco después, el Pentágono presentó su respuesta formal en el litigio.
Los resultados judiciales hasta ahora han sido mixtos. Según el recuento difundido, Anthropic obtuvo en uno de los casos una orden judicial preliminar que bloqueó temporalmente la designación. Sin embargo, en el otro proceso, jueces federales rechazaron su solicitud para levantar esa misma etiqueta. En términos prácticos, eso deja a la compañía en una situación ambigua mientras intenta restaurar plenamente su posición ante el gobierno.
Implicaciones para la política de IA en defensa
Más allá de si el uso de Mythos en la NSA termina siendo confirmado de forma oficial, el episodio retrata un problema estructural. El gobierno estadounidense quiere acelerar la adopción de inteligencia artificial en seguridad y defensa, pero al mismo tiempo mantiene fricciones con algunos de los desarrolladores más avanzados del sector. Eso crea un terreno inestable para contratos, pruebas y políticas públicas.
También deja ver que la evaluación de riesgos en IA no siempre sigue una lógica simple. Una empresa puede ser considerada problemática desde la óptica del suministro o de la contratación, pero seguir siendo vista como valiosa desde la perspectiva técnica. Cuando eso ocurre, las agencias tienden a buscar mecanismos para preservar acceso a capacidades que consideran útiles, aun si existe controversia política alrededor del proveedor.
Para la industria, el mensaje es doble. Por una parte, el interés gubernamental por modelos orientados a ciberseguridad sigue creciendo. Por la otra, las relaciones entre proveedores privados y clientes estatales pueden deteriorarse rápidamente cuando aparecen discrepancias sobre condiciones de uso, controles operativos o límites éticos. El caso Anthropic sugiere que esa tensión ya no es hipotética, sino un factor concreto en el mercado.
En ausencia de comentarios públicos más detallados por parte de la NSA, del Pentágono o de Anthropic sobre este uso específico, lo que queda es una señal clara de la complejidad del momento. La inteligencia artificial se ha vuelto demasiado importante para la seguridad nacional como para quedar al margen de disputas políticas, pero también demasiado útil como para ser descartada con facilidad cuando surgen esas disputas.
Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público
Este artículo fue escrito por un redactor de contenido de IA
ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.
Suscríbete a nuestro boletín
Artículos Relacionados
DeFi
Aave enfrenta tensión de liquidez tras hackeo a Kelp DAO y aumento de préstamos
Criptomonedas
Usuario pierde USD $221.000 en WBTC tras firmar una transacción de phishing en Ethereum
Blockchain
LayerZero culpa a Kelp por exploit de USD $290 millones y apunta a Lazarus
Destacadas