Por Canuto  

Un tribunal federal de apelaciones en Estados Unidos rechazó la solicitud de Anthropic para suspender una inédita designación del Pentágono que califica a la empresa como riesgo para la cadena de suministro de seguridad nacional. El fallo mantiene restricciones sobre el uso de sus modelos de IA por parte de contratistas de defensa y eleva la tensión entre Washington y las tecnológicas que buscan imponer límites al uso militar de sus sistemas.
***

  • El Circuito de DC negó la moción de emergencia de Anthropic para pausar la etiqueta del Pentágono.
  • La designación sigue restringiendo a contratistas del Departamento de Defensa el uso de los modelos de IA de Anthropic.
  • La disputa surgió tras el colapso de negociaciones sobre el uso militar sin restricciones del modelo Claude.


Anthropic sufrió un revés inicial en su disputa con el gobierno de Estados Unidos, luego de que el Tribunal de Apelaciones para el Circuito de DC rechazara su solicitud de emergencia para pausar una designación del Pentágono que la señala como un riesgo para la cadena de suministro de la seguridad nacional.

La decisión mantiene vigente una parte de la determinación oficial del Departamento de Defensa, que además restringe a los contratistas que trabajan con el Pentágono de utilizar los modelos de inteligencia artificial de la compañía. Se trata de una medida inusual, ya que, según la información reportada por Cointelegraph, esta designación nunca se había aplicado antes a una empresa estadounidense.

El caso ha captado atención más allá del sector de defensa. También plantea preguntas sobre hasta dónde puede llegar el gobierno federal para condicionar el desarrollo y despliegue de modelos avanzados de IA, en especial durante un contexto de tensión militar activa.

Para lectores menos familiarizados con el tema, una designación de riesgo de cadena de suministro implica que una entidad pública considera que un proveedor puede representar un problema estratégico o de seguridad. En la práctica, esto puede cerrar puertas comerciales, dañar la reputación de una empresa y limitar su acceso a contratos relevantes.

En este caso, el panel de tres jueces concluyó que el interés del gobierno pesaba más que los posibles daños financieros o reputacionales alegados por Anthropic. En su orden, los magistrados escribieron que “en nuestra opinión, el equilibrio de equidad aquí se inclina a favor del gobierno”.

Los jueces añadieron una comparación directa entre ambas partes en conflicto. “Por un lado hay un riesgo relativamente contenido de daño financiero para una sola empresa privada. Por el otro lado está la gestión judicial de cómo, y por medio de quién, el Departamento de Guerra asegura tecnología vital de IA durante un conflicto militar activo”.

Una disputa nacida del uso militar de Claude

El origen del litigio se remonta a julio de 2025. En ese momento, Anthropic y el Pentágono alcanzaron un acuerdo sobre un contrato para convertir a Claude en el primer modelo de lenguaje grande aprobado para su uso en redes clasificadas.

Sin embargo, las conversaciones se rompieron en febrero de 2026. Según la versión presentada en el caso, el gobierno buscó renegociar e insistió en que Anthropic permitiera el uso militar de Claude sin restricciones.

Anthropic se opuso a esa exigencia. La compañía sostuvo que su tecnología no debía emplearse para armas autónomas letales ni para la vigilancia doméstica masiva de ciudadanos estadounidenses.

Ese punto se volvió el centro político y legal del conflicto. La discusión ya no giró solo sobre contratación pública o acceso a redes clasificadas, sino también sobre los límites éticos que una empresa privada puede intentar imponer al uso gubernamental de sus modelos de IA.

A finales de febrero, el presidente de Estados Unidos, Donald Trump, ordenó a todas las agencias federales dejar de usar productos de Anthropic. Lo hizo al afirmar que la empresa había cometido un “desastroso error al intentar torcerle el brazo al Departamento de Guerra”.

Tras esa decisión, Anthropic demandó a la administración Trump en marzo. La empresa describió las acciones oficiales como una “campaña ilegal de represalia”, dando inicio a una batalla judicial que ahora avanza por más de un frente.

Dos tribunales, dos rutas legales

Uno de los aspectos más llamativos del caso es que Anthropic tuvo que impugnar la designación en dos procesos separados. Esto ocurrió por la forma en que está redactada la legislación federal de contratación pública en Estados Unidos.

Por un lado, la empresa acudió a un tribunal de distrito en California para cuestionar la medida bajo argumentos constitucionales. Por otro, tuvo que presentar una impugnación directa ante el Circuito de DC, amparándose en el estatuto específico que autorizó la designación del Pentágono.

Esa estructura procesal produjo resultados mixtos. A finales de marzo, el Tribunal de Distrito para el Distrito Norte de California concedió una medida cautelar preliminar contra el Pentágono por la designación y frenó temporalmente la directiva de Trump.

Ese tribunal llegó incluso a calificar la medida presidencial como “orwelliana”, un término que refleja la severidad con la que evaluó el alcance de la orden. No obstante, esa victoria parcial no bastó para detener la parte del litigio que correspondía directamente al tribunal de apelaciones en Washington.

En su fallo más reciente, el Circuito de DC reconoció que Anthropic “probablemente sufrirá cierto grado de daño irreparable en ausencia de una suspensión”. Aun así, decidió no conceder la pausa solicitada.

El mismo tribunal indicó que “se justifica una tramitación sustancialmente acelerada”, lo que sugiere que el fondo del asunto seguirá avanzando con rapidez. Eso deja abierta la posibilidad de nuevas decisiones en los próximos meses, aunque por ahora la designación sigue viva.

Impacto para Anthropic y para otras tecnológicas

La consecuencia inmediata del fallo es que continúa en vigor una barrera importante para Anthropic dentro del ecosistema de defensa. Los contratistas vinculados al Pentágono siguen limitados en el uso de los modelos de la empresa, lo que puede afectar futuros acuerdos y reducir su presencia en proyectos estratégicos.

Más allá del caso puntual, la decisión también podría sentar un precedente disuasorio para otras compañías tecnológicas. En especial, para aquellas que aspiren a trabajar con agencias de seguridad nacional, pero a la vez busquen imponer restricciones contractuales o éticas sobre el uso final de sus sistemas.

El mensaje institucional parece claro. En un contexto de conflicto militar activo, los tribunales podrían mostrar deferencia hacia las decisiones del Ejecutivo y del aparato de defensa cuando estas se presentan como necesarias para asegurar acceso operativo a tecnología crítica.

Eso no significa que Anthropic haya perdido el caso de forma definitiva. La empresa todavía mantiene abiertos otros frentes legales y ya obtuvo una señal favorable en California. Sin embargo, esta resolución representa un golpe importante en el plano político, reputacional y comercial.

La reacción del gobierno fue inmediata. Todd Blanche, fiscal general interino de Estados Unidos, escribió en X que se trató de una “victoria contundente para la preparación militar”.

Blanche reforzó además la posición de la Casa Blanca y del Departamento de Guerra con una frase de fuerte carga institucional: “La autoridad militar y el control operativo pertenecen al Comandante en Jefe y al Departamento de Guerra, no a una empresa tecnológica”.

El conflicto entre Anthropic y el Pentágono ahora se perfila como una referencia temprana en la relación entre inteligencia artificial avanzada y seguridad nacional. También funciona como una señal para el mercado: cuando la IA entra en la esfera militar, las discusiones sobre gobernanza, ética y soberanía tecnológica pueden escalar con rapidez hasta el terreno judicial.

Por ahora, el tribunal de apelaciones dejó una conclusión nítida. Frente a la pugna entre el posible daño a una empresa privada y la capacidad del gobierno para controlar el acceso a tecnología crítica durante un conflicto, la balanza se inclinó del lado del Estado.


ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.

Suscríbete a nuestro boletín