La administración Trump defendió ante un tribunal de Estados Unidos la decisión de incluir a Anthropic en una lista negra del Pentágono, en un choque legal que mezcla contratos federales, seguridad nacional y los límites del uso militar de la inteligencia artificial.
***
- El gobierno de Trump aseguró que la exclusión de Anthropic fue legal y no constituye una represalia por libertad de expresión.
- El Pentágono señaló a la empresa como riesgo para la cadena de suministro tras negarse a eliminar restricciones sobre armas autónomas y vigilancia doméstica.
- Anthropic sostiene en dos demandas que la medida fue ilegal, dañina para su negocio y contraria al debido proceso.
La administración de Donald Trump defendió en un tribunal de Estados Unidos la decisión del Pentágono de incluir a Anthropic en una lista negra, una medida que la empresa de inteligencia artificial impugna en los tribunales. El caso se ha convertido en una disputa de alto perfil porque enfrenta la política de seguridad nacional del gobierno con los límites éticos que algunas firmas tecnológicas buscan imponer al uso de sus modelos.
Anthropic es conocida por desarrollar Claude, un asistente de IA de amplia difusión. El núcleo del conflicto es la negativa de la compañía a retirar salvaguardas que impiden que su tecnología sea utilizada en armas autónomas o en vigilancia doméstica. Ese desacuerdo terminó escalando desde negociaciones contractuales hasta acciones formales del Departamento de Defensa y litigios en más de un tribunal federal.
Según informó Reuters, la presentación judicial de la administración sostiene que la decisión de vetar a Anthropic estuvo justificada y fue legal. El documento argumenta que la empresa difícilmente podrá demostrar que la medida violó las protecciones de libertad de expresión previstas en la Primera Enmienda de la Constitución de Estados Unidos.
El texto presentado por el Departamento de Justicia afirma que el conflicto no surgió por represalias contra ideas o posturas expresadas por la empresa, sino por negociaciones contractuales y preocupaciones de seguridad nacional. Esa distinción es central para la defensa del gobierno, porque busca encuadrar la controversia como una decisión ejecutiva vinculada a compras públicas y riesgos estratégicos, no como un castigo por discurso protegido.
La defensa del gobierno y el argumento sobre conducta, no expresión
De acuerdo con el escrito judicial, el secretario de Defensa Pete Hegseth designó a Anthropic como un riesgo para la cadena de suministro de seguridad nacional el 3 de marzo. La decisión llegó después de que la empresa se negara a eliminar protecciones sobre el uso de su tecnología en áreas consideradas sensibles, como sistemas de armas autónomas o esquemas de vigilancia dentro del país.
La administración fue explícita en su razonamiento. En el documento legal afirmó que “solo cuando Anthropic se negó a levantar las restricciones sobre el uso de sus productos, lo cual es conducta, no expresión protegida, el Presidente ordenó a todas las agencias federales que terminen sus relaciones comerciales con Anthropic”. Esa frase resume la tesis del gobierno: se trató de una decisión basada en actos empresariales concretos.
El mismo archivo añade que “nadie ha pretendido restringir la actividad expresiva de Anthropic”. Con ello, el Departamento de Justicia intenta desmontar la idea de que la Casa Blanca o el Pentágono castigaron a la empresa por sostener una postura ética o política sobre la IA. En cambio, presenta la ruptura como una respuesta a una negativa comercial que, a juicio del gobierno, afectó intereses de defensa.
La Casa Blanca no respondió de inmediato a una solicitud de comentarios adicional. Sin embargo, Donald Trump respaldó públicamente el movimiento de Hegseth, reforzando el mensaje de que la administración considera el acceso irrestricto a ciertas capacidades de IA como un asunto vinculado a la protección de vidas estadounidenses y a la operación del aparato militar.
Qué reclama Anthropic en los tribunales
Anthropic presentó una demanda el 9 de marzo ante un tribunal federal de California. En ese expediente, la empresa pide a un juez que bloquee la decisión del Pentágono mientras el litigio avanza. La firma califica la designación como una medida “sin precedentes e ilegal” y sostiene que vulnera sus derechos de libertad de expresión y debido proceso.
Además, la compañía argumenta que el gobierno incumplió una ley que exige a las agencias federales seguir procedimientos específicos al tomar este tipo de decisiones. Ese punto puede resultar decisivo, porque no solo cuestiona la motivación de la medida, sino también el proceso utilizado para imponerla y sus efectos inmediatos sobre la actividad comercial de la empresa.
En una declaración pública, Anthropic dijo que estaba revisando la presentación del gobierno. También señaló que acudir a la revisión judicial no altera su “compromiso de larga data con el aprovechamiento de la IA para proteger nuestra seguridad nacional”, pero definió la demanda como un paso necesario para proteger su negocio, sus clientes y sus socios.
Algunos expertos legales, según recoge la cobertura, creen que Anthropic parece tener un caso sólido para sostener que el gobierno pudo haberse excedido. Esa valoración no equivale a un pronóstico judicial definitivo, pero sí indica que la controversia podría convertirse en una referencia importante sobre cómo se equilibran la discrecionalidad del Ejecutivo, la contratación pública y las libertades constitucionales en la era de la IA.
El impacto empresarial y el trasfondo del conflicto
La exclusión aplicada por el gobierno afecta a un conjunto limitado de contratos militares. Aun así, los ejecutivos de Anthropic han advertido que la medida puede causar un daño reputacional severo y pérdidas de miles de millones de dólares este año. En industrias de alta tecnología, quedar asociado a un riesgo para la cadena de suministro puede influir no solo en ventas públicas, sino también en alianzas privadas y financiamiento.
La disputa no apareció de forma repentina. La designación llegó después de meses de negociaciones entre el Pentágono y Anthropic que terminaron estancadas. Ese punto muerto llevó a Trump y a Hegseth a denunciar a la compañía y acusarla de poner en peligro vidas estadounidenses con sus restricciones de uso.
Anthropic rechaza esas afirmaciones. La empresa sostiene que la inteligencia artificial aún no es lo bastante segura para utilizarse en armas autónomas. También ha dicho que se opone a la vigilancia doméstica como una cuestión de principio, una postura que revela un choque más profundo entre las prioridades del sector defensa y las políticas de seguridad de algunos laboratorios de IA.
Para lectores menos familiarizados con el tema, este caso ilustra una tensión creciente en toda la industria tecnológica. Las compañías de IA buscan contratos gubernamentales y militares, pero al mismo tiempo algunas intentan imponer límites sobre aplicaciones que consideran peligrosas o éticamente problemáticas. Cuando esos límites chocan con objetivos de seguridad nacional, el desacuerdo puede pasar del plano comercial al judicial.
Una segunda batalla judicial en Washington
El conflicto no se limita al caso de California. El Pentágono también designó por separado a Anthropic como un riesgo para la cadena de suministro bajo una ley distinta. Esa segunda base legal podría ampliar el alcance de la orden y extender sus efectos a todo el gobierno federal, no solo a un grupo acotado de contratos militares.
Anthropic está impugnando esa decisión en una segunda demanda, presentada ante un tribunal de apelaciones de Washington, D.C. La existencia de dos frentes judiciales muestra que la empresa intenta frenar tanto el efecto práctico inmediato del veto como la estructura regulatoria más amplia que podría cerrar gran parte del mercado federal a sus productos y servicios.
El resultado de estas causas podría tener consecuencias más allá de Anthropic. Si los tribunales avalan la postura del gobierno, otras empresas de IA podrían enfrentar una presión mayor para adaptar sus políticas de uso a los requerimientos del sector defensa. Si ocurre lo contrario, las agencias federales podrían ver limitado su margen para castigar a proveedores que mantengan restricciones éticas sobre el despliegue de sus sistemas.
Por ahora, el caso permanece abierto y concentra atención en varios frentes a la vez: libertad de expresión, debido proceso, contratación pública, reputación corporativa y seguridad nacional. En un momento en que la IA se vuelve cada vez más estratégica para gobiernos y empresas, la pelea entre Anthropic y la administración Trump podría definir hasta dónde llega el poder del Estado para exigir condiciones de uso a los desarrolladores de modelos avanzados.
Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público.
Este artículo fue escrito por un redactor de contenido de IA y revisado por un editor humano para garantizar calidad y precisión.
ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.
Suscríbete a nuestro boletín
Artículos Relacionados
Bitcoin
Convicción institucional regresa a los ETF Bitcoin ahora que marcan 7 días seguidos de entradas
Criptomonedas
La SEC y la CFTC están poniendo fin a su rivalidad, pero ¿qué significa para las criptos?
Bitcoin
Bitcoin Depot enfrenta suspensión en Connecticut por cobros excesivos y fallas de control
Estados Unidos