Por Canuto  

Anthropic aseguró que el Secretario de Guerra Pete Hegseth busca designar a la empresa como “riesgo en la cadena de suministro” tras un punto muerto en negociaciones por dos excepciones: no permitir el uso de Claude para vigilancia masiva de estadounidenses ni para armas totalmente autónomas. La compañía dijo que la medida sería sin precedentes contra una firma estadounidense y que la impugnará en tribunales si avanza, mientras insiste en que sus clientes comerciales no deberían ver afectado su acceso al modelo.
***

  • Anthropic afirma que las negociaciones con el Departamento de Guerra se estancaron por dos excepciones: vigilancia masiva y armas totalmente autónomas.
  • La empresa sostiene que designarla “riesgo en la cadena de suministro” sería un precedente peligroso y, según su lectura legal, solo aplicaría a contratos del Departamento de Guerra.
  • Anthropic anticipa una batalla legal y promete mantener soporte a clientes y continuidad para usuarios fuera del ámbito militar.

 


Una disputa por límites de uso de la IA llega al terreno de la “cadena de suministro”

Anthropic publicó una declaración tras los comentarios del Secretario de Guerra Pete Hegseth, quien escribió en X que está dirigiendo al Departamento de Guerra a designar a la empresa como un “riesgo en la cadena de suministro”. Según Anthropic, el anuncio ocurre después de meses de negociaciones que se estancaron por dos excepciones solicitadas por la compañía para el uso “legítimo” de su modelo de IA, Claude.

Esas excepciones, de acuerdo con la empresa, son dos: el rechazo a la vigilancia masiva de estadounidenses y el rechazo al uso del modelo en armas totalmente autónomas. Anthropic indicó que, hasta el momento de su comunicado, no había recibido comunicación directa del Departamento de Guerra ni de la Casa Blanca sobre el estado de las negociaciones.

Para lectores nuevos, una “designación de riesgo en la cadena de suministro” es un mecanismo que, en términos generales, puede restringir el uso o la adquisición de tecnologías dentro de ciertos contratos gubernamentales. En el contexto de seguridad nacional, este tipo de medidas suelen asociarse a preocupaciones sobre seguridad, dependencia tecnológica o riesgo operativo, aunque el alcance preciso depende del marco legal aplicable.

La declaración se enmarca en una tensión creciente entre la industria de IA y los organismos de defensa sobre cómo deben usarse modelos de frontera, que son sistemas capaces de tareas avanzadas y con alto potencial de impacto. El punto de fricción, según Anthropic, no es si apoyar misiones de seguridad nacional, sino bajo qué condiciones y con qué límites.

Las dos excepciones: vigilancia masiva y armas totalmente autónomas

Anthropic afirmó que negoció “de buena fe” con el Departamento de Guerra. Señaló que apoya “todos los usos legítimos de la IA para la seguridad nacional”, salvo las dos excepciones mencionadas. La empresa agregó que, hasta donde sabe, dichas excepciones “no han afectado ninguna misión del gobierno hasta la fecha”.

Sobre armas totalmente autónomas, Anthropic sostuvo que los modelos de IA de frontera actuales no son lo suficientemente confiables para ese fin. En su argumento, permitir el uso de los modelos actuales en armas de ese tipo pondría en peligro a combatientes y civiles estadounidenses. La compañía presentó esta limitación como un asunto de seguridad y confiabilidad tecnológica, no solo de postura ética.

Respecto a la vigilancia masiva, la empresa fue directa: considera que vigilar masivamente a estadounidenses constituye una violación de derechos fundamentales. Con esa frase, Anthropic ubicó su negativa en el terreno de las libertades civiles y el marco de derechos, un tema que suele generar debate cuando se cruzan capacidades tecnológicas y objetivos de inteligencia.

El choque ilustra un problema recurrente en IA aplicada a defensa: la diferencia entre “uso” y “abuso” no siempre se define de forma uniforme entre proveedores, agencias y contratistas. En modelos generalistas como Claude, las restricciones de uso buscan limitar ciertos despliegues sin bloquear aplicaciones defensivas más convencionales, pero su implementación puede tensar relaciones comerciales cuando hay contratos estratégicos de por medio.

“Sin precedentes” para una empresa estadounidense y el antecedente para el sector

Anthropic calificó como “sin precedentes” la idea de designarla como riesgo en la cadena de suministro. Afirmó que históricamente esa herramienta se ha reservado para adversarios de Estados Unidos y que no se había aplicado públicamente a una empresa estadounidense. La compañía dijo estar “profundamente apenada” por los acontecimientos.

La empresa también destacó un elemento de contexto: se describió como la primera compañía de IA de frontera en desplegar modelos en redes clasificadas del gobierno de Estados Unidos. Indicó que ha apoyado a combatientes estadounidenses desde junio de 2024 y que tiene la intención de continuar haciéndolo, pese al conflicto actual.

Además, sostuvo que una designación de ese tipo sería “legalmente insostenible” y que sentaría un precedente peligroso para cualquier empresa estadounidense que negocie con el gobierno. En otras palabras, Anthropic advirtió que la medida podría interpretarse como castigo por mantener límites contractuales sobre usos sensibles de una tecnología.

En su declaración, la compañía también denunció que ninguna intimidación o castigo del Departamento de Guerra cambiará su posición sobre vigilancia masiva o armas totalmente autónomas. Recalcó que impugnará en tribunales cualquier designación de riesgo en la cadena de suministro que llegue a concretarse formalmente.

Impacto para clientes: qué cambia y qué no, según Anthropic

Un eje central del comunicado fue tranquilizar a usuarios y empresas. Anthropic dijo que el Secretario Hegseth “ha dado a entender” que la designación restringiría a cualquiera que haga negocios con el ejército de hacer negocios con Anthropic. Sin embargo, la empresa sostuvo que el Secretario “no tiene la autoridad legal” para respaldar esa afirmación.

La compañía fundamentó su interpretación en el marco legal que mencionó explícitamente: indicó que una designación de riesgo en la cadena de suministro bajo 10 USC 3252 solo puede extenderse al uso de Claude como parte de contratos del Departamento de Guerra. Según Anthropic, eso no puede afectar cómo los contratistas utilizan Claude para atender a otros clientes fuera de esos contratos.

En términos prácticos, el comunicado trazó dos escenarios. Primero, si se trata de un cliente individual o con un contrato comercial con Anthropic, el acceso a Claude a través de la API, de claude.ai o de cualquiera de sus productos “no se verá afectado en absoluto”. Esa frase busca reducir incertidumbre en el mercado y evitar que un conflicto gubernamental se convierta en un riesgo de continuidad para clientes privados.

Segundo, si se trata de un contratista del Departamento de Guerra, la empresa dijo que la designación, si se adopta formalmente, solo afectaría el uso de Claude en el trabajo de contratos del Departamento de Guerra. Su uso para cualquier otro propósito no se vería afectado, según el texto. Anthropic añadió que sus equipos de ventas y soporte están disponibles para responder preguntas.

Un cierre con agradecimientos y una transición “armoniosa”

Anthropic agradeció a sus usuarios y también a colegas de la industria, legisladores, veteranos y miembros del público que han expresado apoyo “en los últimos días”. Ese cierre sugiere que el episodio ya venía generando conversación pública antes de la declaración formal, aunque el comunicado no detalla eventos adicionales.

La empresa afirmó que sus prioridades son proteger a sus clientes de cualquier interrupción causada por estos hechos “extraordinarios”. También dijo que busca trabajar con el Departamento de Guerra para asegurar una transición “armoniosa”, y especificó que esa transición sería “para ellos, para nuestras tropas y para las operaciones militares estadounidenses”.

En el trasfondo, el caso refleja un dilema que se repetirá mientras la IA gane peso en defensa y seguridad: qué condiciones aceptan los proveedores privados cuando el cliente es el Estado, y cómo se resuelven las discrepancias sin convertirlas en sanciones amplias. En esta historia, Anthropic presenta sus excepciones como límites de seguridad y derechos, y anticipa que el siguiente capítulo podría escribirse en tribunales.

La información fue comunicada por la propia empresa en su declaración “Statement on the comments from Secretary of War Pete Hegseth”, donde detalla el alcance de sus excepciones, su lectura legal y el impacto esperado para clientes y contratistas.


ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.

Suscríbete a nuestro boletín