Por Canuto  

Cientos de trabajadores tecnológicos firmaron una carta abierta para que el Departamento de Defensa de EE. UU. retire la etiqueta de “riesgo para la cadena de suministro” impuesta a Anthropic, tras una disputa por el acceso militar a sus sistemas de IA. El episodio escaló luego de que el presidente Donald Trump ordenara a agencias federales dejar de usar la tecnología de la firma, en un conflicto que reabre el debate sobre vigilancia masiva, armas autónomas y el poder del gobierno frente a proveedores clave de IA.
***

  • La carta pide al DOD retirar la designación de “riesgo para la cadena de suministro” y al Congreso intervenir para revisar si se abusó de “autoridades extraordinarias”.
  • Anthropic se negó a otorgar acceso irrestricto al ejército y marcó dos líneas rojas: no vigilancia masiva de estadounidenses ni armas autónomas sin intervención humana.
  • Tras el choque, Trump ordenó dejar de usar Anthropic tras una transición de seis meses; Hegseth anunció un corte inmediato, aunque el proceso formal requiere evaluación y notificación al Congreso.

 

Cientos de trabajadores del sector tecnológico firmaron una carta abierta para que el Departamento de Defensa de Estados Unidos (DOD) retire la designación de Anthropic como un “riesgo para la cadena de suministro”. La misiva, lanzada la semana pasada, continúa capitalizando más apoyo, al tiempo que también solicita que el Congreso intervenga y “examine si el uso de estas autoridades extraordinarias contra una empresa tecnológica estadounidense es apropiado”.

Entre los firmantes hay personal vinculado a empresas y actores relevantes del ecosistema tecnológico y de capital de riesgo, incluyendo OpenAI, Slack, IBM, Cursor y Salesforce Ventures, entre otros. La carta enmarca el episodio como una preocupación que excede a una sola compañía. El foco está en el precedente que dejaría el uso de herramientas regulatorias y contractuales del Estado contra proveedores estadounidenses de IA.

La disputa se detonó después de que Anthropic, un laboratorio de inteligencia artificial, se negara la semana pasada a dar al ejército acceso irrestricto a sus sistemas de IA. Ese rechazo derivó en una confrontación con el Pentágono sobre el tipo de condiciones que el gobierno puede exigir a un proveedor privado. También abrió un debate sobre límites éticos y de gobernanza para modelos avanzados en contextos de defensa, reseña TechCrunch.

En su argumento, los firmantes sostienen que cuando dos partes no logran acordar términos, el camino habitual es separarse y contratar a un competidor. Por eso, califican lo ocurrido como una represalia. “Esta situación sienta un precedente peligroso”, señala la carta. El texto advierte que castigar a una empresa por no aceptar cambios a un contrato envía un mensaje coercitivo al resto del sector.

Las “líneas rojas” de Anthropic: vigilancia masiva y armas autónomas

En las negociaciones con el Pentágono, Anthropic estableció dos límites explícitos. Primero, que su tecnología no se use para la vigilancia masiva de estadounidenses. Segundo, que no se utilice para alimentar armas autónomas que tomen decisiones de selección y disparo sin intervención humana.

El DOD dijo que no tenía planes de hacer ninguna de esas dos cosas. Sin embargo, también expresó que no creía que debiera quedar limitado por las reglas de un proveedor. Este choque refleja una tensión típica en tecnología estratégica: el Estado busca flexibilidad operativa, mientras las empresas intentan establecer salvaguardas sobre usos que consideran inaceptables.

Para lectores que siguen de cerca el mercado de IA, este tipo de desacuerdo marca un punto sensible: la frontera entre “modelos como servicio” y “capacidades de infraestructura crítica”. A medida que la IA se integra a procesos de seguridad nacional, la negociación ya no se reduce a precio y desempeño. Incluye cláusulas de acceso, auditoría, control de uso y responsabilidades ante efectos adversos.

El caso también es relevante por su relación con riesgos civiles. La preocupación por vigilancia masiva conecta con debates sobre privacidad, recolección de datos y abuso de poder. Y el tema de armas autónomas se vincula con la rendición de cuentas. Si un sistema decide y actúa sin un humano en el ciclo, se vuelve más difícil asignar responsabilidad por errores o daños.

Trump ordena dejar de usar Anthropic y Hegseth anuncia una ruptura inmediata

Tras la negativa del CEO de Anthropic, Dario Amodei, de llegar a un acuerdo con el secretario de Defensa, Pete Hegseth, el presidente Donald Trump ordenó el viernes que las agencias federales dejen de usar la tecnología de la empresa. La orden contempla un período de transición de seis meses.

Luego, Hegseth decidió designar a Anthropic como un “riesgo para la cadena de suministro”. Se trata de una etiqueta que, de acuerdo con la descripción del caso, normalmente se reserva para adversarios extranjeros. Además, implicaría que la firma quedaría en la lista negra para trabajar con cualquier agencia o empresa que haga negocios con el Pentágono.

En un post del viernes, Hegseth escribió: “Con efecto inmediato, ningún contratista, proveedor o socio que haga negocios con el ejército de Estados Unidos puede realizar cualquier actividad comercial con Anthropic”. La frase elevó la presión para que terceros corten relaciones con la empresa. También encendió alarmas sobre cómo se comunica y aplica una medida de tal magnitud.

Sin embargo, el posteo no convierte automáticamente a Anthropic en un riesgo oficial de cadena de suministro. El gobierno debe completar una evaluación de riesgos y notificar al Congreso antes de que los socios militares deban cortar lazos con la empresa o sus productos. Este matiz es central, porque define el punto exacto en el que la medida pasa de ser una declaración política a una obligación operativa para contratistas.

Industria tecnológica: temor a represalias y al uso de IA para abusos gubernamentales

Muchos dentro de la industria ven el trato hacia Anthropic como duro y como una represalia clara. La carta abierta lo plantea con una lógica contractual: si no hay acuerdo, se cambia de proveedor. En cambio, se optó por un mecanismo que podría impedir a la compañía trabajar con una amplia red de actores vinculados al ecosistema de defensa.

El texto enfatiza la señal al mercado: “acepta los términos que el gobierno demanda, o enfréntate a represalias”. En un sector donde la contratación pública y los despliegues en entornos sensibles pueden ser decisivos, el efecto no es solo reputacional. Puede impactar ingresos, alianzas y acceso a oportunidades en el mayor comprador institucional del país.

Más allá del caso Anthropic, el episodio reactivó preocupaciones por el potencial exceso de poder del gobierno y el uso de IA para fines nefastos. El debate no es abstracto. Se conecta con la capacidad de los modelos para clasificar, resumir, vigilar y tomar decisiones a escala, lo que puede reducir costos de monitoreo y aumentar el alcance de políticas intrusivas.

En ese marco, Boaz Barak, investigador de OpenAI, escribió el lunes en redes sociales que bloquear a los gobiernos de usar IA para realizar vigilancia masiva también es su “línea roja personal” y “debería ser la de todos nosotros”. El mensaje plantea un estándar que no depende de un solo laboratorio. Busca convertirlo en una norma sectorial, al nivel de otros riesgos evaluados en el sector.

OpenAI firma con el DOD y Barak pide procesos similares a los de bioseguridad y ciberseguridad

Poco después de que Trump atacara públicamente a Anthropic, OpenAI anunció que alcanzó su propio acuerdo para que sus modelos se desplieguen en entornos clasificados del Departamento de Defensa (DOD). La coincidencia temporal subrayó un contraste: mientras un actor quedaba bajo amenaza de exclusión, otro avanzaba con una implementación en uno de los ámbitos más sensibles del Estado.

Según el reporte de TechCrunch, el CEO de OpenAI, Sam Altman, dijo la semana pasada que la firma tiene las mismas líneas rojas que Anthropic. Esa afirmación deja abierta una pregunta incómoda para el sector: cómo se materializan esas líneas rojas en contratos concretos. También importa qué mecanismos de verificación existen cuando los despliegues ocurren en entornos clasificados.

Barak sugirió que, si algo bueno puede salir de los eventos de la última semana, sería que la industria de IA empiece a tratar el uso de IA para el abuso gubernamental y la vigilancia a su propia gente como un riesgo catastrófico por derecho propio. En su mensaje, comparó este reto con otros frentes donde ya existen evaluaciones y mitigaciones, como armas biológicas y seguridad cibernética.

El punto final conecta con gobernanza: “Usemos procesos similares aquí”, escribió Barak. En la práctica, esa idea podría implicar políticas de evaluación de uso, controles internos, auditorías, limitaciones técnicas y criterios de rechazo de clientes. El caso Anthropic, con su choque frontal con el DOD, muestra cuán difícil puede ser sostener esos límites cuando están en juego contratos y presiones estatales.

El camino legal y la pelea por la definición de “riesgo” en la cadena de suministro

Anthropic respondió en un post de blog que la designación es “legalmente infundada” y que “desafiaría cualquier designación de riesgo para la cadena de suministro en corte”. La declaración sugiere que la empresa está dispuesta a llevar el conflicto al terreno judicial si el gobierno formaliza el proceso y activa consecuencias contractuales más amplias.

En términos de cadena de suministro, la etiqueta tiene una carga particular. Suele asociarse a la idea de que un proveedor introduce vulnerabilidades sistémicas, ya sea por dependencia, acceso a datos, riesgos de sabotaje o control por parte de adversarios. Por eso, la industria observa con atención cuándo y cómo se aplica esa categoría a una compañía estadounidense y en el contexto de una negociación fallida.

El desenlace también importa para el ecosistema de inversión en IA. Los firmantes incluyen empleados de capital de riesgo, lo que sugiere inquietud por incertidumbre regulatoria y por el riesgo de que una decisión política afecte valoraciones, acuerdos comerciales y la viabilidad de empresas que intentan imponer límites éticos. En un mercado donde la confianza es un activo, la amenaza de “lista negra” introduce volatilidad institucional.

La carta pide al Congreso actuar como contrapeso. En el trasfondo está la pregunta de gobernanza democrática: qué tan amplias son las “autoridades extraordinarias” que puede invocar el Ejecutivo para condicionar tecnología estratégica. Y, sobre todo, cómo se evita que se usen para presionar a actores privados que intentan restringir usos que consideran peligrosos.


Artículo escrito con ayuda de un redactor de contenido de IA, editado por Angel Di Matteo / DiarioBitcoin

Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público


ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.

Suscríbete a nuestro boletín