La disputa entre Anthropic y el Departamento de Defensa de Estados Unidos escaló a un nivel inédito. El Pentágono etiquetó oficialmente a la empresa como riesgo para la cadena de suministro tras su negativa a permitir usos de IA vinculados a vigilancia masiva doméstica y armas totalmente autónomas, una decisión que amenaza operaciones militares activas y abre un debate mayor sobre poder estatal, ética tecnológica y control de los grandes modelos de IA.
***
- El Pentágono notificó a Anthropic que tanto la empresa como sus productos fueron catalogados como riesgo para la cadena de suministro.
- La medida llegó tras el rechazo de Dario Amodei a permitir vigilancia masiva de estadounidenses y armas autónomas sin supervisión humana.
- La designación podría afectar operaciones militares de EE. UU., que hoy dependen de Claude dentro del sistema Maven de Palantir en Medio Oriente.
El Departamento de Defensa de Estados Unidos notificó oficialmente a la directiva de Anthropic que la compañía y sus productos fueron clasificados como un riesgo para la cadena de suministro. La decisión marca un giro extraordinario en la relación entre Washington y uno de los laboratorios de inteligencia artificial más relevantes del país.
Según reportó Bloomberg, citando a un alto funcionario del departamento, la designación llegó después de varias semanas de enfrentamiento entre la empresa y el Pentágono. En el centro del conflicto está la negativa del CEO de Anthropic, Dario Amodei, a permitir que los sistemas de la firma se utilicen para vigilancia masiva de estadounidenses o para potenciar armas totalmente autónomas sin intervención humana en decisiones de apuntar o disparar.
El caso se ha vuelto especialmente sensible porque no se trata de una disputa comercial común. Lo que está en juego es quién define los límites éticos y operativos del uso militar de la IA: el Estado o los proveedores privados que desarrollan esos modelos.
La medida también plantea preguntas más amplias para el ecosistema tecnológico. Si una compañía puede ser castigada por fijar restricciones de uso a sus sistemas, otras firmas de IA podrían enfrentar presiones similares cuando sus productos entren en áreas de defensa, seguridad y vigilancia.
Una designación poco común con efectos inmediatos
Las designaciones de riesgo para la cadena de suministro suelen reservarse para adversarios extranjeros. Por eso, varios críticos describen este movimiento como algo sin precedentes cuando se aplica a una empresa tecnológica estadounidense, más aún en el marco de un desacuerdo sobre condiciones de uso de software de IA.
La etiqueta tiene consecuencias prácticas de gran alcance. Cualquier empresa o agencia que trabaje con el Pentágono deberá certificar que no utiliza modelos de Anthropic. Eso equivale, en la práctica, a un bloqueo operativo que puede afectar contratos, integraciones técnicas y acceso a sistemas ya desplegados.
La situación amenaza tanto a Anthropic como a las propias operaciones del Departamento de Defensa. La empresa había destacado por ser el único laboratorio de IA con sistemas listos para entornos clasificados, un atributo clave en contextos militares donde la seguridad y la confidencialidad son determinantes.
El impacto potencial no es teórico. Estados Unidos depende actualmente de Claude en su campaña en Irán, donde fuerzas estadounidenses utilizan herramientas de IA para gestionar datos con rapidez dentro de sus operaciones. Esa dependencia convierte la disputa en un problema operativo, no solo político o regulatorio.
Además, Claude figura entre las principales herramientas instaladas en Maven, el sistema inteligente de Palantir del que dependen operadores militares en Medio Oriente. Si la nueva clasificación se aplica de manera estricta, el Pentágono podría terminar dañando flujos tecnológicos de los que hoy ya depende.
El origen del choque entre Anthropic y el Pentágono
El conflicto se intensificó cuando Amodei se negó a flexibilizar los límites de uso de los modelos de Anthropic para fines que consideró incompatibles con la supervisión humana y con libertades civiles básicas. La empresa rechazó que su IA se empleara para vigilancia masiva doméstica y para sistemas de armas totalmente autónomos.
Desde la visión del Departamento, ese tipo de restricciones no debería quedar en manos de un contratista privado. El argumento oficial ha sido que el uso de la inteligencia artificial por parte del ejército no debe estar limitado por condiciones impuestas por una empresa tecnológica, especialmente cuando existen necesidades de seguridad nacional.
Ese punto de fricción expone una tensión creciente en la industria. Las firmas de IA quieren vender sus modelos a gobiernos y grandes corporaciones, pero también intentan fijar líneas rojas para evitar usos que puedan generar abusos, daños civiles o responsabilidades éticas difíciles de revertir.
En este caso, Anthropic optó por sostener esas líneas. La respuesta del Pentágono fue elevar el desacuerdo a una categoría normalmente asociada con riesgos sistémicos de seguridad nacional, lo que disparó una reacción inmediata de parte de críticos, competidores y empleados del propio sector tecnológico.
Críticas por represalia y advertencias sobre el precedente
Varios observadores sostienen que etiquetar a Anthropic como un riesgo de cadena de suministro por esta disputa representa una medida extrema. Dean Ball, exasesor de IA en la Casa Blanca de Trump, calificó la designación como el “sonido de muerte” de la república estadounidense.
Ball argumentó que el gobierno abandonó la claridad estratégica y el respeto en favor de un tribalismo “matón” que trata a innovadores nacionales peor que a adversarios extranjeros. Esa crítica resume el temor de que la autoridad estatal se esté usando para disciplinar a empresas que se resisten a ciertas exigencias militares.
La reacción no quedó allí. Cientos de empleados de OpenAI y Google pidieron al Departamento de Defensa retirar la designación y llamaron al Congreso a responder ante lo que podría interpretarse como un uso inadecuado de la autoridad contra una empresa tecnológica de Estados Unidos.
Esos trabajadores también exhortaron a sus propios líderes a mantenerse unidos para seguir rechazando las demandas del Pentágono sobre vigilancia masiva doméstica y lo que describieron como “asesinato autónomo de personas sin supervisión humana”. El lenguaje refleja el nivel de alarma que la medida generó dentro de la comunidad de IA.
OpenAI toma otro camino y crece la comparación
Mientras Anthropic endurecía su postura, OpenAI avanzó en una dirección distinta. En medio de la disputa, la empresa cerró su propio acuerdo con el Departamento de Defensa para permitir que el ejército utilice sus sistemas de IA para “todos los fines legales”.
La redacción del pacto generó inquietud incluso dentro de la propia OpenAI. Algunos empleados expresaron preocupación por la ambigüedad de esa fórmula, ya que podría habilitar precisamente los tipos de usos que Anthropic intentó bloquear desde el principio.
La comparación entre ambas empresas es inevitable. Una eligió imponer límites claros y terminó enfrentando una sanción de enorme peso político y operativo. La otra aceptó una fórmula más amplia y aseguró su relación con el aparato militar, aunque a costa de abrir nuevas dudas sobre el alcance real de esos usos.
El contraste ilustra un dilema clave en la industria de IA. A medida que los modelos se integran en seguridad, defensa y análisis de datos sensibles, las compañías deberán decidir si priorizan principios de uso restringido o acceso a contratos estatales de alto valor estratégico.
También revela cómo la competencia entre laboratorios de IA puede cruzarse con afinidades políticas, relaciones institucionales y márgenes de tolerancia frente a exigencias gubernamentales que, fuera del sector, suelen recibir menos escrutinio público.
La dimensión política detrás del conflicto
Amodei calificó las acciones del Departamento de Defensa como “retaliatorias y punitivas”. Según lo reportado, también dijo que su negativa a elogiar o donar al presidente Donald Trump contribuyó a la disputa con el Pentágono.
Ese elemento político añade otra capa de controversia al caso. Si la decisión estuvo influida, aunque fuera de forma parcial, por consideraciones de lealtad política, el episodio podría convertirse en un referente sobre cómo el poder ejecutivo presiona a empresas tecnológicas en sectores estratégicos.
La comparación con OpenAI alimenta aún más esa lectura. El presidente de la compañía, Greg Brockman, ha sido un firme defensor de Trump y donó recientemente USD $25.000.000 al Super PAC MAGA Inc. Aunque esa contribución no prueba una relación causal con el acuerdo militar, sí fortalece las sospechas de trato desigual en medio de una disputa de alto perfil.
En conjunto, el episodio no solo afecta a Anthropic. También puede redefinir la relación futura entre el gobierno estadounidense y los desarrolladores de IA más avanzados del país, justo cuando la competencia global por liderazgo tecnológico se acelera y el uso militar de estos sistemas gana peso geopolítico.
Por ahora, la designación del Pentágono deja abierta una pregunta inquietante. Si una empresa estadounidense que limita ciertos usos de su tecnología puede ser tratada como un riesgo de cadena de suministro, la frontera entre regulación, represalia y coerción política podría volverse cada vez más difusa.
Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público.
Este artículo fue escrito por un redactor de contenido de IA y revisado por un editor humano para garantizar calidad y precisión.
ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.
Suscríbete a nuestro boletín
Artículos Relacionados
Italia confirma hackeo a periodista con spyware de Paragon y crece el escándalo
X renueva sus suscripciones para creadores con hilos exclusivos y nuevas herramientas
Estafador cripto en Corea del Sur reaparece tras ser declarado muerto y devuelve fondos robados