Tras romperse un contrato de USD $200 millones con el Departamento de Defensa de EE. UU. por desacuerdos sobre el acceso y uso de su IA, Anthropic habría reanudado conversaciones con el Pentágono para buscar un compromiso, incluso después de que el DOD firmara con OpenAI y de un intercambio público de acusaciones entre altos funcionarios.
***
- El contrato de USD $200 millones entre Anthropic y el DOD se cayó por una disputa sobre el “acceso ilimitado” y una cláusula de “cualquier uso legal”.
- Reportes indican que Dario Amodei retomó negociaciones con el funcionario del Pentágono Emil Michael, pese a los ataques personales cruzados.
- El secretario de Defensa Pete Hegseth amenazó con catalogar a Anthropic como “riesgo para la cadena de suministro”, una medida inusual para una firma estadounidense.
🚨 Anthropic reinicia negociaciones con el Pentágono tras perder contrato de USD $200M con el DOD
El acuerdo se cayó por desacuerdos sobre acceso ilimitado a su IA.
Amodei busca condiciones que limiten usos legales considerados inaceptables.
El DOD avanzó con OpenAI, pero la… pic.twitter.com/4fho4DelJ3
— Diario฿itcoin (@DiarioBitcoin) March 5, 2026
Un contrato roto por el alcance del acceso a la IA
El CEO de Anthropic, Dario Amodei, estaría intentando reabrir un canal de negociación con el Pentágono, luego de que se viniera abajo un contrato valorado en USD $200 millones con el Departamento de Defensa de Estados Unidos (DOD). La relación se fracturó la semana pasada, cuando ambas partes no lograron acordar hasta qué punto el ejército podría contar con acceso ilimitado a los sistemas de inteligencia artificial de la empresa.
De acuerdo con la información disponible, el desacuerdo se concentró en las condiciones de uso de los modelos y en el lenguaje contractual que definiría los límites. El DOD buscaba una cláusula que le permitiera emplear la IA de Anthropic para “cualquier uso legal”. Para Amodei, ese encuadre dejaba margen para usos que la compañía considera inaceptables.
El choque no es un detalle menor. La IA generativa se ha convertido en una pieza estratégica para análisis, logística, síntesis de información y apoyo operativo. Sin embargo, a medida que los modelos se vuelven más capaces, también crece el debate sobre su utilización en vigilancia, inteligencia militar y automatización de decisiones con consecuencias directas para derechos civiles y para la seguridad internacional.
Cuando las negociaciones colapsaron, el DOD avanzó con un acuerdo alternativo con OpenAI. Ese giro dio la impresión de que el vínculo con Anthropic se extinguiría. No obstante, reportes posteriores apuntan a que el tema sigue abierto y que ambas partes aún ven razones prácticas para intentar un entendimiento.
Conversaciones reanudadas y la búsqueda de un compromiso
Según reportes atribuidos a Financial Times y Bloomberg, Amodei habría retomado conversaciones con el funcionario del Pentágono Emil Michael. El objetivo sería diseñar un contrato que defina cómo el Pentágono puede seguir accediendo a los modelos de IA de Anthropic, pero bajo condiciones que reflejen mejor las restricciones que la compañía quiere imponer a ciertos usos.
El posible regreso a la mesa llama la atención por el nivel de hostilidad que se ha acumulado. Aun así, un compromiso podría resultar atractivo para ambos. Por un lado, el Pentágono ya depende de la tecnología de Anthropic, y una migración abrupta hacia sistemas de OpenAI podría ser disruptiva para procesos en curso.
Por otro lado, para Anthropic el episodio tiene implicaciones que van más allá de un contrato puntual. El acceso a clientes gubernamentales de alto presupuesto puede ser determinante en una industria que compite por infraestructura, talento y capacidad de cómputo. Al mismo tiempo, esas relaciones amplifican el escrutinio ético y político sobre cómo se despliegan los modelos.
El núcleo de la disputa sigue siendo el mismo: la empresa no quería que la redacción “cualquier uso legal” se interpretara como carta blanca. Amodei sostuvo que Anthropic no permitiría que su tecnología se utilizara para vigilancia masiva doméstica o para armamento autónomo. También buscaba que el contrato prohibiera de forma más clara esos escenarios.
Acusaciones, “teatro de seguridad” y el costo reputacional
Tras el quiebre, las fricciones se volvieron públicas. Emil Michael, según se reportó, calificó a Amodei como un “mentiroso” con un “complejo de Dios”. Esa acusación elevó el conflicto desde lo contractual hacia lo personal, complicando cualquier salida negociada, porque endurece posiciones y aumenta el costo político de ceder.
Amodei también habría lanzado ataques contra el DOD y contra el CEO de OpenAI, Sam Altman, en un mensaje interno enviado al personal de Anthropic. En ese memo, describió el acuerdo del DOD con OpenAI como “teatro de seguridad”. También sostuvo que la mensajería alrededor del pacto contenía “mentiras totales”.
En el mismo texto, Amodei escribió: “La razón principal por la que [OpenAI] aceptó [el acuerdo del DOD] y nosotros no es que les importaba apaciguar a los empleados, y a nosotros nos importaba realmente prevenir abusos”. La frase ilustra el eje de la disputa: para Anthropic, el desacuerdo no se limita a precio o prestación, sino a controles de uso y prevención de daños.
Este tipo de confrontación ocurre en un momento en que varias compañías de IA compiten por vender soluciones a gobiernos. En la práctica, la industria se mueve entre dos presiones. Una es la demanda estatal de capacidades avanzadas. La otra es el riesgo de que los modelos se integren en flujos de trabajo que habiliten vigilancia o decisiones automatizadas con baja rendición de cuentas.
La amenaza de “riesgo para la cadena de suministro”
La tensión escaló aún más por una advertencia del secretario de Defensa, Pete Hegseth. Se indicó que Hegseth prometió declarar a Anthropic un “riesgo para la cadena de suministro”. En términos prácticos, eso podría equivaler a colocar a la empresa en una lista negra, limitando su posibilidad de trabajar con otras compañías que mantengan negocios con el ejército de Estados Unidos.
La eventual designación sería especialmente llamativa, porque este tipo de etiqueta suele reservarse para adversarios extranjeros. Aplicarla a una compañía estadounidense implicaría un precedente delicado. También abriría un debate sobre hasta dónde puede llegar el gobierno en su relación con proveedores tecnológicos cuando hay desacuerdos por cláusulas de uso.
Hasta el momento, no se informó que Hegseth haya emprendido una acción legal para concretar la amenaza. Además, se señaló que no está claro si una medida de ese tipo sobreviviría a una impugnación judicial. Ese elemento agrega incertidumbre, porque eleva el conflicto a un plano regulatorio y de contrataciones públicas.
En paralelo, la posibilidad de que continúen las conversaciones sugiere que ambas partes aún sopesan costos operativos y riesgos estratégicos. Para el Pentágono, cortar de raíz con un proveedor ya integrado puede implicar atrasos e ineficiencias. Para Anthropic, quedar estigmatizada como “riesgo” afectaría su posicionamiento comercial y podría impactar alianzas en el ecosistema tecnológico.
Lo que está en juego para la industria de IA y los mercados
Más allá del caso puntual, el episodio revela una fricción estructural: cómo compatibilizar la ética corporativa y los compromisos de seguridad con las necesidades del sector defensa. La cláusula “cualquier uso legal” puede parecer amplia, pero precisamente ahí se juega el control. Lo legal no siempre coincide con lo aceptable para una firma que intenta establecer límites reputacionales.
También es un recordatorio para inversionistas y observadores del sector tecnológico. Los contratos gubernamentales pueden ser una fuente de ingresos y validación, pero traen riesgos de gobernanza, escrutinio y exposición política. Cuando hay polémica, el efecto se puede extender a socios, clientes y proveedores, incluso sin un litigio abierto.
En el corto plazo, el foco está en si Anthropic y el DOD encuentran un punto medio que permita continuidad sin “acceso ilimitado” ni ambigüedades sobre usos sensibles. Si el diálogo fracasa, el acuerdo del DOD con OpenAI quedaría como la vía principal. Aun así, el Pentágono ya habría admitido de facto su dependencia previa de la tecnología de Anthropic, lo que complica una transición limpia.
Por ahora, el choque de posturas y declaraciones muestra que la competencia en IA no solo se define por rendimiento de modelos. También se define por contratos, límites de uso, y por la capacidad de sostener relaciones con el Estado sin desbordes reputacionales. El resultado de estas conversaciones puede influir en cómo se redacten futuros acuerdos entre laboratorios de IA y agencias de seguridad.
Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público
Este artículo fue escrito por un redactor de contenido de IA
ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.
Suscríbete a nuestro boletín
Artículos Relacionados
Meta demandada por sus lentes IA: empleados en Kenia vieron desnudos y sexo de usuarios
CleanSpark vendió 97% de su Bitcoin minado en febrero para financiar su giro hacia IA
Meta permitirá chatbots de IA rivales en WhatsApp en Europa —pero no será gratis