Por Canuto  

Anthropic consiguió una victoria judicial clave en su enfrentamiento con la administración Trump, luego de que una jueza federal bloqueara temporalmente la orden presidencial que prohibía a agencias federales usar Claude y frenara el intento del Pentágono de tratar a la empresa como una amenaza para la seguridad nacional.

***

  • Una jueza federal otorgó a Anthropic una medida cautelar preliminar contra la administración Trump.
  • La orden impide aplicar, por ahora, la directiva presidencial que prohibía a agencias federales usar Claude.
  • El caso gira en torno a la ruptura de negociaciones con el Pentágono sobre el uso de IA en defensa y a una supuesta represalia ilegal.

 


Anthropic obtuvo una medida cautelar preliminar en su disputa judicial contra la administración del presidente Donald Trump, en un fallo que frena de momento tanto la prohibición federal sobre el uso de sus modelos Claude como los esfuerzos del Pentágono por catalogar a la empresa como una amenaza para la seguridad nacional de Estados Unidos.

La decisión fue emitida por la jueza federal Rita Lin, en San Francisco, dos días después de una audiencia en la que los abogados de la startup de inteligencia artificial y del gobierno estadounidense expusieron sus argumentos. La magistrada adoptó un tono especialmente duro al evaluar la actuación de la Casa Blanca y del Departamento de Defensa, conocido como DOD por sus siglas en inglés.

En términos simples, una medida cautelar preliminar no resuelve el fondo del litigio, pero sí suspende acciones que podrían causar daños mientras el caso sigue su curso. En este caso, el alivio judicial era crítico para Anthropic, que alegó perjuicios económicos y reputacionales derivados de las decisiones del gobierno.

Según informó CNBC, la demanda busca revertir la inclusión de Anthropic en una lista negra del Pentágono y también una directiva de Trump que ordenó a las agencias federales dejar de utilizar la tecnología de la firma. El fallo de Lin bloquea temporalmente la implementación y aplicación de ambas medidas.

Un revés judicial para la administración Trump

La orden judicial prohíbe a la administración Trump implementar, aplicar o hacer cumplir la directiva presidencial. También limita los intentos del Pentágono de presentar a Anthropic como una amenaza para la seguridad nacional de Estados Unidos, una etiqueta que la empresa considera infundada y jurídicamente insostenible.

La jueza Rita Lin dejó claro que, a su juicio preliminar, el caso no trata sobre el derecho del gobierno a dejar de contratar con una empresa privada. Durante la audiencia del martes, sostuvo que el DOD es libre de dejar de usar Claude y buscar un proveedor de IA más permisivo, pero subrayó que la cuestión central es si el gobierno violó la ley al actuar contra Anthropic.

En su orden, Lin escribió que castigar a Anthropic por someter a escrutinio público la posición contractual del gobierno constituye una represalia ilegal clásica de la Primera Enmienda. La frase es relevante porque sugiere que el tribunal ve un posible castigo estatal por expresiones protegidas, un punto especialmente delicado en el sistema constitucional estadounidense.

La magistrada fue más lejos y afirmó que nada en el estatuto aplicable respalda la noción orwelliana de que una empresa estadounidense pueda ser etiquetada como potencial adversaria y saboteadora de Estados Unidos por expresar desacuerdo con el gobierno. Ese lenguaje elevó el tono del caso y anticipa una batalla legal intensa en los próximos meses.

Aunque la medida cautelar representa una victoria importante para Anthropic, el litigio no ha terminado. Un veredicto final todavía podría tardar meses, por lo que el fallo actual funciona sobre todo como un freno temporal a decisiones que ya estaban afectando la operación y la imagen pública de la compañía.

Cómo comenzó el conflicto entre Anthropic y el Pentágono

La disputa escaló tras varias semanas de tensión en Washington D. C. entre el Departamento de Defensa y una de las compañías privadas más valiosas del sector de inteligencia artificial. Anthropic presentó su demanda a principios de marzo, después de una cadena de decisiones públicas y formales por parte de la administración Trump.

A finales de febrero, el secretario de Defensa Pete Hegseth publicó en X que Anthropic representaba un supuesto riesgo para la cadena de suministro. Esa designación implica que el uso de la tecnología de la empresa supuestamente amenaza la seguridad nacional estadounidense. Días después, a inicios de marzo, el DOD formalizó la medida mediante una carta dirigida a la compañía.

La decisión tuvo un peso inusual. Anthropic es la primera empresa estadounidense nombrada públicamente como riesgo para la cadena de suministro, una categoría que históricamente había sido reservada para adversarios extranjeros. Ese detalle explica por qué la firma interpretó la acción como extraordinaria y dañina más allá de una simple ruptura contractual.

La designación también generó consecuencias inmediatas para terceros. Contratistas de Defensa como Amazon, Microsoft y Palantir quedaron obligados a certificar que no utilizan Claude en su trabajo con el ejército. Eso amplificó el impacto comercial del caso y elevó el conflicto desde una disputa bilateral a una controversia con implicaciones para el ecosistema tecnológico y de defensa.

De forma paralela, poco antes de que Hegseth anunciara la designación, Trump publicó en Truth Social una orden para que las agencias federales cesaran inmediatamente todo uso de la tecnología de Anthropic. El presidente agregó que habría un período de eliminación gradual de seis meses para dependencias como el DOD.

Trump acompañó esa instrucción con una declaración de fuerte tono político. Escribió que “NOSOTROS decidiremos el destino de nuestro país — NO alguna empresa de IA de la izquierda radical, fuera de control, dirigida por personas que no tienen idea de cómo es el mundo real”. Esa publicación quedó integrada al contexto político del expediente judicial.

El trasfondo contractual y la disputa sobre el uso militar de la IA

Antes de la ruptura, Anthropic ya tenía vínculos relevantes con el aparato de defensa estadounidense. La empresa fue la primera en desplegar sus modelos en redes clasificadas del DOD y, según el reporte de CNBC, había sido elogiada por su capacidad para integrarse con contratistas existentes como Palantir.

La relación incluso había producido un contrato por USD $200 millones con el Pentágono en julio. Sin embargo, cuando en septiembre comenzaron las negociaciones para desplegar Claude en la plataforma de IA GenAI.mil del DOD, las conversaciones se estancaron y finalmente colapsaron.

El núcleo del desacuerdo era sustantivo. El Departamento de Defensa quería acceso irrestricto a los modelos de Anthropic para todos los fines legales. Anthropic, en cambio, exigía garantías de que su tecnología no sería usada para armas totalmente autónomas ni para vigilancia masiva doméstica.

Ese punto ayuda a entender por qué el conflicto desbordó lo comercial. No se trataba solo de precio o de condiciones técnicas, sino de los límites éticos y políticos en el uso de sistemas avanzados de IA por parte de las fuerzas armadas y otras agencias del Estado.

Para lectores menos familiarizados con este debate, muchas empresas de IA intentan equilibrar dos objetivos que a veces chocan entre sí. Por un lado, buscan contratos gubernamentales de gran escala. Por otro, tratan de evitar que sus modelos se utilicen en aplicaciones que puedan derivar en abusos, automatización letal o vigilancia intensiva de la población.

En ese sentido, el caso de Anthropic expone una tensión cada vez más visible en la industria tecnológica. La misma tecnología que puede servir para análisis, logística o ciberdefensa también puede emplearse en entornos de alta sensibilidad, donde las cláusulas de uso y control resultan cruciales.

Dos vías judiciales y un caso con implicaciones más amplias

La administración Trump justificó su acción sobre la base de dos designaciones distintas, 10 U.S.C. § 3252 y 41 U.S.C. § 4713. Debido a esa estructura legal, la disputa debe impugnarse en dos tribunales separados, lo que añade complejidad al proceso.

Además de la demanda presentada en San Francisco, Anthropic ya inició otra acción para una revisión formal de la determinación del Departamento de Defensa ante la Corte de Apelaciones de Estados Unidos en Washington. Eso significa que la compañía mantiene un frente judicial múltiple para revertir completamente las medidas adoptadas en su contra.

Tras conocerse el fallo, Anthropic declaró que está agradecida al tribunal por actuar con rapidez. La empresa agregó que, aunque el caso fue necesario para proteger a Anthropic, a sus clientes y a sus socios, su enfoque sigue siendo trabajar de manera productiva con el gobierno para garantizar que todos los estadounidenses se beneficien de una IA segura y confiable.

Más allá del desenlace final, el litigio ya plantea preguntas importantes para el mercado de IA. Entre ellas, hasta dónde puede llegar el gobierno al excluir a una empresa tecnológica de contratos y sistemas federales, y si una ruptura contractual puede escalar hacia sanciones públicas que afecten a todo un sector de aliados comerciales.

Para la industria, el caso también podría convertirse en un precedente sobre libertad de expresión corporativa, contratación pública y límites del argumento de seguridad nacional cuando se aplica a compañías domésticas. Es un tema que probablemente seguirán de cerca desarrolladores de IA, contratistas de defensa, reguladores e inversionistas.

Por ahora, la victoria es parcial, pero significativa. Anthropic evitó que la Casa Blanca y el Pentágono consolidaran de inmediato medidas que amenazaban con aislarla del mercado federal y dañar su posición en una de las áreas más estratégicas del negocio de inteligencia artificial.


Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público

Este artículo fue escrito por un redactor de contenido de IA

 


ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.

Suscríbete a nuestro boletín