Anthropic presentó una demanda federal contra el Departamento de Defensa de EE. UU. y otras agencias tras ser designada como “riesgo en la cadena de suministro”, una medida sin precedentes contra una empresa tecnológica estadounidense que amenaza cientos de millones de dólares en ingresos y reabre el debate sobre los límites del uso militar de la inteligencia artificial.
***
- Anthropic pide a un juez anular la designación del Pentágono y frenar su aplicación en agencias federales.
- La empresa alega represalias por negarse a permitir usos de Claude en vigilancia doméstica y armas autónomas.
- La disputa podría afectar contratos públicos, proveedores como Palantir y la competencia con OpenAI en defensa.
🚨 Anthropic demanda al Pentágono 🚨
La empresa de IA fue incluida en una lista negra como "riesgo en la cadena de suministro".
Alegan represalias por negarse a permitir el uso de Claude en vigilancia y armas autónomas.
Sus contratos con el gobierno están siendo cancelados,… pic.twitter.com/dRgvAKOnZx
— Diario฿itcoin (@DiarioBitcoin) March 9, 2026
Anthropic llevó su choque con el gobierno de Estados Unidos a los tribunales. La empresa de inteligencia artificial presentó una demanda federal contra el Departamento de Defensa y otras agencias, después de que la administración de Donald Trump la incluyera en una lista negra y la calificara como un riesgo para la cadena de suministro.
La decisión marca un precedente inusual. Según la información reportada por WIRED y CNBC, Anthropic es la primera empresa estadounidense en recibir una designación de este tipo, una herramienta que históricamente se había reservado para mantener tecnologías de adversarios extranjeros, especialmente chinas, fuera de sistemas militares y de seguridad nacional.
El conflicto gira en torno al uso de Claude, la familia de modelos de IA de Anthropic. El Pentágono formalizó la sanción la semana pasada, luego de varias semanas de desacuerdo público sobre los límites que debía aceptar la compañía para que su tecnología pudiera seguir utilizándose en aplicaciones militares sensibles.
En su demanda, presentada en un tribunal federal de California, Anthropic pidió que un juez revierta la designación y prohíba a las agencias federales hacerla cumplir. La compañía sostuvo que la acción del Ejecutivo es ilegal y que constituye un castigo por discurso protegido, en referencia a su postura pública sobre usos que considera demasiado riesgosos para su tecnología.
Una batalla legal con grandes implicaciones comerciales
La startup advirtió que el impacto económico puede ser severo. En el escrito judicial, afirmó que sus contratos con el gobierno federal ya están siendo cancelados y que acuerdos actuales y futuros con empresas privadas también han quedado en duda. La firma dijo que eso pone en riesgo cientos de millones de dólares en el corto plazo.
Anthropic también alegó daños reputacionales y afectaciones a sus libertades amparadas por la Primera Enmienda. En la presentación judicial, la compañía afirmó que, sin intervención de la corte, esos perjuicios solo se agravarán en las próximas semanas y meses.
Dario Amodei, CEO de Anthropic, expresó una postura similar en una publicación de blog citada por WIRED. Allí señaló que la empresa no considera jurídicamente sólida la acción del gobierno y que no veía otra opción que impugnarla ante la justicia. Al mismo tiempo, sostuvo que siguen existiendo conversaciones productivas con el Pentágono para intentar resolver la disputa.
La empresa trató además de limitar la percepción del alcance inmediato de la medida. Amodei dijo que la gran mayoría de los clientes de Anthropic no tendrá que hacer cambios, porque la designación se aplicaría de forma clara solo al uso de Claude como parte directa de contratos con el ejército. Según su explicación, el uso general de la tecnología por parte de contratistas militares no debería verse afectado.
El origen del choque: límites al uso militar de Claude
El trasfondo de la disputa es político, comercial y ético. En enero, el secretario de Defensa Pete Hegseth ordenó a varios proveedores de IA aceptar que el departamento podía utilizar sus tecnologías para cualquier propósito legal. Anthropic fue la firma que se opuso abiertamente a esa exigencia.
La empresa sostiene que sus sistemas todavía no son lo bastante capaces como para ser empleados en vigilancia masiva doméstica de ciudadanos estadounidenses o en armas completamente autónomas. Esa postura la colocó en una ruta de colisión con una administración que ha hecho de la adopción militar de IA una prioridad explícita.
Hegseth ha defendido una línea mucho más amplia para el uso de estas herramientas. Según WIRED, en el Pentágono incluso se han visto carteles con su imagen señalando y el mensaje “Quiero que uses IA”. Desde esa óptica, el funcionario ha sostenido que Anthropic busca reservarse un poder de veto sobre decisiones que, a su juicio, deben recaer en el Departamento de Defensa.
La tensión escaló todavía más cuando el presidente Donald Trump compartió el mes pasado una publicación en redes sociales instruyendo a las agencias federales a “cesar inmediatamente” todo uso de la tecnología de Anthropic. Ese gesto político reforzó la señal de aislamiento oficial contra la empresa.
Una designación inusual y un caso difícil en corte
Especialistas en contratación pública consultados por WIRED anticipan una batalla cuesta arriba para Anthropic. Las reglas que permiten al Departamento de Defensa etiquetar a una empresa tecnológica como riesgo en la cadena de suministro ofrecen poco margen de apelación.
Brett Johnson, socio del bufete Snell & Wilmer, explicó que es prerrogativa del gobierno fijar los parámetros de un contrato. También señaló que el Pentágono puede sostener que un producto, cuando es utilizado por sus proveedores, perjudica la capacidad del gobierno para cumplir su misión.
Aun así, Johnson planteó que la mejor oportunidad de éxito para Anthropic podría estar en demostrar que fue seleccionada de forma discriminatoria. El punto cobra fuerza porque poco después de que Hegseth anunciara la designación contra Anthropic, OpenAI comunicó que había alcanzado un nuevo contrato con el Pentágono.
Ese contraste puede ser central para el caso si Anthropic logra probar que buscaba condiciones similares a las aceptadas por el desarrollador de ChatGPT. OpenAI explicó que su acuerdo incluye mecanismos contractuales y técnicos para impedir que su tecnología se use en vigilancia masiva doméstica o para dirigir sistemas de armas autónomas. La firma añadió que se opone a la acción contra Anthropic y que no sabe por qué su rival no pudo llegar a un entendimiento comparable con el gobierno.
Efectos sobre contratistas, agencias y competencia en IA
El impacto potencial no se limita a Anthropic. Funcionarios militares estadounidenses usan Claude principalmente a través de herramientas de terceros que lo integran, entre ellas el Maven Smart System de Palantir, según personas familiarizadas citadas por WIRED. Esas herramientas sirven para tareas desde redactar documentos hasta análisis de mayor sensibilidad, incluida la planificación de ataques.
Si la designación se mantiene, Palantir y otros contratistas de defensa tendrían que migrar hacia alternativas a Claude, posiblemente a un costo más alto para el gobierno. En ese contexto, varias startups de IA enfocadas en defensa, como Vannevar Labs, ya han comenzado a ofrecer sus modelos como reemplazos potenciales.
La presión también se extiende fuera del ámbito militar. Varias agencias gubernamentales ajenas al ejército habrían indicado que dejarán de usar Claude para cumplir con la directiva difundida por Trump la semana pasada. Microsoft, por su parte, dijo que continuará ofreciendo Claude a agencias y empresas estadounidenses, excepto al Departamento de Defensa.
OpenAI no precisó cuándo su tecnología estaría lista para reemplazar a Claude dentro del software militar. Hegseth afirmó que retirar los servicios de Anthropic podría tomar hasta seis meses, lo que sugiere que, incluso con la decisión política ya tomada, la transición técnica no será inmediata.
Debate político y advertencias del sector tecnológico
El caso ya generó reacciones fuera de las empresas directamente involucradas. Anthropic había advertido recientemente que usar la etiqueta de riesgo en la cadena de suministro contra una compañía estadounidense establecía un precedente peligroso, precisamente porque esa figura se diseñó con otro propósito.
La semana pasada, una coalición de grupos de la industria tecnológica, entre ellos TechNet, Business Software Alliance y la Asociación de la Industria de la Información del Software, pidió a la administración Trump reconsiderar la designación. En una carta, argumentaron que tratar a una firma estadounidense como si fuera una adversaria, en vez de un activo, podía tener un efecto paralizante sobre la innovación.
Esos grupos representan a grandes tecnológicas como Apple, Google, Nvidia, Microsoft, Meta, IBM, Salesforce y Oracle. En paralelo, otra coalición de tecnólogos destacados y exasesores de seguridad nacional envió una carta a miembros del Comité de Servicios Armados del Senado para advertir que el uso de esa autoridad contra una empresa doméstica supone un desvío profundo de su propósito original.
Entre los firmantes estuvieron el exdirector de la CIA Michael Hayden, el profesor de la Escuela de Derecho de Harvard Lawrence Lessig, el exsocio de Andreessen Horowitz John O’Farrell, el exsubsecretario del Ejército Brad Carson y varios almirantes retirados o en activo. El grupo pidió al Congreso definir reglas claras sobre el uso de IA en vigilancia doméstica y sistemas de armas letales autónomas.
Por ahora, el Departamento de Defensa y la Casa Blanca no han respondido de inmediato a las solicitudes de comentarios sobre la demanda. Mientras tanto, el caso ya se perfila como una prueba decisiva para el equilibrio entre seguridad nacional, poder contractual del gobierno y límites éticos del despliegue militar de la inteligencia artificial.
Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público
Este artículo fue escrito por un redactor de contenido de IA
ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.
Suscríbete a nuestro boletín
Artículos Relacionados
Blockchain
FMI: La tokenización mejora finanzas, pero su efecto en la estabilidad es incierto
Criptomonedas
Lo que la entrada de eToro entra a Nueva York significa para su valoración en bolsa
Adopción
Acciones tokenizadas rompen récord con volumen de USD $2.870 millones en marzo
Empresas