El Pentágono amenaza con romper lazos con Anthropic y designar su IA Claude como “riesgo en la cadena de suministro” por disputa sobre restricciones éticas en el uso militar.
***
- El Pentágono amenaza con romper lazos con Anthropic y designarlo un “riesgo en la cadena de suministro”.
- Surgen conflictos sobre el uso ético de su IA, Claude, en operaciones militares de Estados Unidos.
- Claude ya ha sido utilizado en operaciones reales clasificadas del Pentágono, incluida la captura de Maduro.
- Anthropic y otras empresas de IA imponen límites sobre el uso de sus modelos para violencia, vigilancia, etc.
El Departamento de Defensa de Estados Unidos, bajo el liderazgo del secretario Pete Hegseth, está cerca de cortar sus relaciones comerciales con la empresa de inteligencia artificial (IA), Anthropic.
Según un reporte exclusivo de Axios publicado este lunes, el Pentágono podría calificar los modelos de Anthropic —en particular su popular modelo Claude— como un “riesgo en la cadena de suministro“.
Esta designación, típicamente reservada para adversarios extranjeros, obligaría a cualquier contratista que busque hacer negocios con el Pentágono a desvincularse de la compañía o certificar que no utiliza sus herramientas en sus procesos.
La amenaza se produce tras meses de negociaciones tensas sobre los términos de uso de Claude en sistemas clasificados del ejército estadounidense. Según la información, el Pentágono exige que el modelo se pueda emplear para “todos los propósitos legales”, incluyendo desarrollo de armas, recolección de inteligencia y operaciones en el campo de batalla.
Anthropic, por su parte, insiste en mantener “salvaguardas” estrictas para impedir que su IA se utilice en vigilancia masiva contra ciudadanos estadounidenses o en el desarrollo de armas autónomas letales sin intervención humana directa.
Un alto funcionario del Pentágono declaró a Axios: “Será un enorme dolor de cabeza desenredar [los sistemas], y nos aseguraremos de que paguen un precio por obligarnos a hacer esto“.
Pentágono revisa relación con Anthropic
El portavoz principal del Departamento de Defensa, Sean Parnell, confirmó que “la relación del Departamento de Guerra con Anthropic está siendo revisada“. En un comunicado, añadió: “Nuestra nación requiere que nuestros socios estén dispuestos a ayudar a nuestros combatientes a ganar en cualquier pelea. Al final, se trata de nuestras tropas y la seguridad del pueblo estadounidense“.
Por su parte, un portavoz de Anthropic respondió que la empresa mantiene “conversaciones productivas, de buena fe, con el DoD [Departamento de Defensa] sobre cómo continuar ese trabajo y resolver estos nuevos y complejos problemas correctamente“.
La compañía reiteró su compromiso con la seguridad nacional y destacó que fue la primera en desplegar un modelo de IA en redes clasificadas militares.
Claude es utilizado en operaciones militares
El informe se produce después de que The Wall Street Journal reportara que el Departamento de Defensa de EE. UU. utilizó Claude durante la operación militar que resultó en la captura del líder venezolano Nicolás Maduro en Caracas a principios de enero, en una de las primeras instancias conocidas en las que un modelo de IA de gran escala se integró en una acción militar clasificada del Pentágono.
El acceso al modelo se realizó a través de la asociación de Anthropic con Palantir Technologies, una firma ampliamente utilizada por el Pentágono. Estas revelaciones habrían generado presuntamente conflictos, ya que dicho uso de Claude violaría las políticas de uso de Anthropic, que prohíben el empleo de su IA para actividades que involucren violencia, diseño de armas o vigilancia masiva, y exigen cumplimiento en todos los despliegues.
Claude es actualmente el único modelo disponible en los sistemas clasificados del Pentágono y ha sido utilizado en operaciones reales, incluyendo la mencionada misión en Venezuela. El contrato en riesgo asciende a hasta USD $200 millones, una cantidad modesta frente a los USD $14 mil millones en ingresos anuales de Anthropic y su reciente valoración de USD $380 mil millones tras una ronda de financiación de USD $30 mil millones.
EE. UU. pide a las empresas de IA eliminar restricciones
Bloomberg confirmó el reporte de Axios y añadió que Anthropic desarrolló una versión específica, denominada Claude Gov, optimizada para manejar materiales clasificados, inteligencia y ciberseguridad, posicionándose como una opción responsable para el aparato de seguridad nacional. Las negociaciones podrían sentar precedente para futuras conversaciones con competidores como OpenAI, Google y xAI, que aún no están desplegados en entornos clasificados.
Reuters reportó que el Pentágono ha presionado a cuatro compañías de IA (incluidas OpenAI, Google y xAI) para que eliminen muchas de las restricciones habituales en redes clasificadas, pero Anthropic no ha cedido en puntos clave como límites duros a armas totalmente autónomas y vigilancia masiva doméstica. La empresa aclaró que sus conversaciones con el gobierno se han centrado en esas políticas de uso, sin relación con operaciones específicas actuales.
La escalada refleja tensiones crecientes entre el enfoque ético de algunas firmas de Silicon Valley y las demandas del Pentágono por máxima flexibilidad en el uso de IA de frontera para mantener ventaja estratégica, particularmente frente a competidores como China.
Las negociaciones continúan, pero fuentes indican que el Departamento de Defensa está preparado para avanzar con la designación si no se alcanza un acuerdo pronto.
Artículo redactado con ayuda de IA, editado por DiarioBitcoin
Imagen generada con herramienta de IA, bajo licencia de uso libre
ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.
Suscríbete a nuestro boletín
Artículos Relacionados
PersonaPlex: el modelo de NVIDIA que da control de rol y voz a la conversación por voz en tiempo real
Anthropic abre oficina en Bengaluru y acelera alianzas de IA responsable en India
Agentes de IA ahora transaccionan entre diferentes Blockchains sin custodia gracias a deBridge