El Departamento de Justicia de Estados Unidos apelará el fallo que frenó temporalmente la prohibición del uso gubernamental de la tecnología de Anthropic, en una disputa que mezcla seguridad nacional, contratos militares y límites éticos para la IA.
***
- El DOJ apeló la decisión judicial del 26 de marzo que bloqueó la prohibición contra Anthropic.
- La Casa Blanca había ordenado a las agencias federales dejar de trabajar con la empresa y fijó una eliminación gradual de seis meses.
- Anthropic asegura que la medida viola su libertad de expresión y el debido proceso, y advirtió que podría perder miles de millones de dólares.
La disputa entre Anthropic y el gobierno de Estados Unidos entró en una nueva fase. El Departamento de Justicia apelará el fallo emitido el 26 de marzo por una jueza que bloqueó la prohibición impulsada por la administración Trump sobre el uso gubernamental de la tecnología de inteligencia artificial de la empresa.
De acuerdo con Bloomberg, que citó una presentación judicial reseñada por PYMNTS, la apelación busca restablecer una medida que había suspendido temporalmente la relación del gobierno federal con los modelos de IA de Anthropic. El caso se ha convertido en uno de los choques más visibles entre una firma líder de IA y las autoridades federales por temas de seguridad, defensa y límites de uso.
Para entender la relevancia del conflicto, conviene recordar que Anthropic es una compañía de inteligencia artificial conocida por desarrollar la familia de modelos Claude. Su tecnología compite en un mercado estratégico para gobiernos, grandes empresas y contratistas, especialmente en áreas donde la IA puede integrarse a sistemas sensibles.
El centro de la disputa es una designación del Departamento de Defensa que calificó a Anthropic como un riesgo para la cadena de suministro. Esa etiqueta no solo afectó su relación con el Pentágono, sino que terminó escalando a una decisión más amplia de la Casa Blanca para cortar vínculos en todo el gobierno federal.
Cómo comenzó el conflicto
Según lo reportado, el 27 de febrero la Casa Blanca comunicó a las agencias federales que el gobierno ya no trabajaría con Anthropic. Además, las dependencias que ya utilizaban modelos de la empresa recibirían un período de eliminación gradual de seis meses.
La medida representó una intensificación de una disputa que, en principio, había surgido dentro del Departamento de Defensa. Sin embargo, el choque dejó de ser un asunto limitado al Pentágono y se transformó en una controversia de alcance federal, con implicaciones contractuales, regulatorias y constitucionales.
La decisión del gobierno llegó poco antes de una fecha límite impuesta por el Pentágono para que Anthropic aceptara que los militares podían usar sus modelos en “todos los casos de uso legales”. Ese punto se volvió crítico porque la empresa se negó a aceptar esa redacción.
En lugar de ceder, Anthropic intentó negociar un lenguaje contractual que prohibiera el uso de sus modelos en armas autónomas y vigilancia doméstica masiva. Esa postura marcó una línea ética clara por parte de la compañía, pero también profundizó el enfrentamiento con las autoridades de defensa.
Después de que el Pentágono designara a la empresa como un riesgo de seguridad, Anthropic anunció el 27 de febrero que impugnaría la decisión ante los tribunales. La compañía sostuvo que la interpretación del gobierno excedía el alcance legal de ese tipo de designación.
En una publicación citada en su blog, Anthropic afirmó que, legalmente, una designación de riesgo para la cadena de suministro solo puede extenderse al uso de Claude como parte de contratos del Departamento de Guerra. También argumentó que no puede afectar la manera en que los contratistas usan Claude para atender a otros clientes.
La demanda de Anthropic y el fallo de la jueza
La compañía presentó formalmente su demanda contra el Departamento de Defensa el 9 de marzo. Su objetivo era impedir que la agencia impusiera la designación de riesgo para la cadena de suministro sobre la empresa y, con ello, bloquear los efectos prácticos de esa clasificación.
Anthropic argumentó ante el tribunal que la designación viola sus derechos a la libertad de expresión y al debido proceso. Por esa razón, pidió que la corte revocara la medida y evitara que el gobierno federal la siguiera aplicando.
El 26 de marzo, una jueza falló a favor de bloquear la prohibición de la administración Trump sobre el uso gubernamental de la tecnología de Anthropic. Esa decisión pausó el plan del gobierno, aunque la magistrada también suspendió su propia orden durante una semana para dar tiempo a que las autoridades presentaran una apelación.
Esa pausa temporal resultó clave, porque abrió la puerta para el siguiente paso procesal. Ahora, con la apelación del Departamento de Justicia, el caso seguirá su curso y la disputa sobre el alcance del poder del Ejecutivo frente a los proveedores de IA se mantendrá abierta.
El expediente también pone en primer plano una pregunta que va más allá de Anthropic. Se trata de si una empresa tecnológica puede imponer restricciones éticas al uso de sus modelos cuando el cliente potencial es el Estado, especialmente en contextos militares o de seguridad interna.
Para el ecosistema de IA, el caso funciona como referencia sobre el equilibrio entre soberanía estatal, contratación pública y gobernanza tecnológica. También refleja que los desacuerdos sobre usos permitidos ya no son solo debates académicos, sino conflictos con consecuencias comerciales y legales inmediatas.
El posible impacto económico para Anthropic
El 10 de marzo, durante una audiencia judicial, Anthropic dijo que podría perder miles de millones de dólares debido a la prohibición gubernamental sobre sus servicios. Esa afirmación subrayó el tamaño del riesgo económico asociado a quedar fuera del mercado federal de Estados Unidos.
Un abogado de la empresa dijo al tribunal que las acciones del gobierno ya habían provocado que más de 100 clientes expresaran preocupación por seguir trabajando con Anthropic. Ese dato sugiere que el daño reputacional y comercial podría ir mucho más allá de los contratos directos con Washington.
En sectores como inteligencia artificial, nube y defensa, la confianza institucional pesa tanto como el desempeño técnico. Una designación de riesgo de seguridad puede afectar negociaciones con contratistas, empresas privadas y socios internacionales, incluso antes de que exista un fallo definitivo.
En consecuencia, el litigio no solo definirá si el gobierno puede restaurar el veto. También pondrá a prueba cuánto puede resistir una firma de IA cuando entra en conflicto con las prioridades de defensa nacional de la mayor economía del mundo.
Por ahora, el caso sigue abierto y el Departamento de Justicia intentará revertir el revés sufrido en marzo. Si prospera la apelación, la administración podría retomar la prohibición y reforzar su capacidad para excluir a proveedores tecnológicos que no acepten ciertos términos de uso.
Si Anthropic logra sostener su victoria inicial, el fallo podría convertirse en un precedente importante para otras empresas que busquen limitar contractualmente el empleo de sus sistemas en vigilancia o armamento autónomo. En cualquiera de los escenarios, la controversia ya dejó claro que el debate sobre IA y Estado está entrando en una etapa mucho más confrontativa.
Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público.
Este artículo fue escrito por un redactor de contenido de IA y revisado por un editor humano para garantizar calidad y precisión.
ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.
Suscríbete a nuestro boletín
Artículos Relacionados
IA
ElevenLabs lanza ElevenMusic y entra a competir en la música generada con IA
IA
Anthropic afirma que Claude tiene “emociones funcionales” que alteran su conducta
Estados Unidos
Trump propone un gasto militar que añadiría USD $6,9 billones a la deuda de EE. UU., advierte CRFB
Estados Unidos