Por Angel Di Matteo   𝕏 @shadowargel

El secretario de Defensa Pete Hegseth dio a Anthropic un plazo de 24 horas para conceder acceso irrestricto a su modelo de inteligencia artificial Claude o enfrentar sanciones severas, incluyendo la posible aplicación de la Defense Production Act y la designación como “riesgo en la cadena de suministro”.

***

  • El Pentágono amenaza con invocar la Defense Production Act si Anthropic no elimina restricciones.
  • Claude es el único modelo de IA utilizado en sistemas militares clasificados.
  • xAI de Elon Musk compite con un sistema de enjambres autónomos de drones.

 

El Departamento de Defensa de Estados Unidos elevó la tensión en su relación con Anthropic tras una reunión directa entre el secretario de Defensa, Pete Hegseth, y el CEO de la compañía, Dario Amodei, celebrada el martes 24 de febrero en el Pentágono.

Según reveló el medio Axios, Hegseth dio a Anthropic hasta el viernes por la noche para conceder al ejército acceso sin restricciones a su modelo Claude. De lo contrario, el Pentágono consideraría romper vínculos contractuales o incluso invocar la Defense Production Act.

Un alto funcionario de Defensa describió el encuentro como “no cálido ni amigable”. Otra fuente lo calificó como cordial, aunque tenso, y señaló que no hubo gritos durante la conversación.

El núcleo del conflicto

De acuerdo con reportes, el Pentágono exige que el modelo Claude pueda utilizarse para todos los fines legales sin limitaciones impuestas por la empresa desarrolladora. Hegseth afirmó que no permitirá que ninguna compañía dicte bajo qué términos se toman decisiones operativas militares.

Anthropic ha manifestado disposición para adaptar sus políticas de uso al entorno gubernamental. Sin embargo, mantiene dos líneas rojas claras: no permitir el uso del modelo para vigilancia masiva de ciudadanos estadounidenses ni para el desarrollo de sistemas de armas totalmente autónomos sin intervención humana.

De acuerdo con Axios, Claude es actualmente el único modelo de IA utilizado en los sistemas más sensibles y clasificados del ejército estadounidense. Esta dependencia estratégica aumenta la presión sobre ambas partes.

Un funcionario de Defensa declaró al medio que “la única razón por la que seguimos hablando con ellos es porque los necesitamos y los necesitamos ahora. El problema para estos tipos es que son así de buenos”.

Amenaza de la Defense Production Act

La Defense Production Act otorga al presidente la autoridad para obligar a empresas privadas a aceptar y priorizar contratos considerados esenciales para la defensa nacional.

La ley fue utilizada durante la pandemia de COVID-19 para acelerar la producción de vacunas y ventiladores. Sin embargo, su aplicación en un contexto adversarial contra una empresa tecnológica sería inusual.

Según un funcionario citado por Axios, la idea sería forzar a Anthropic a adaptar su modelo a las necesidades del Pentágono sin salvaguardas adicionales. Un consultor de defensa indicó que Anthropic podría impugnar la medida en tribunales argumentando que su producto no es un bien comercial estándar susceptible de ser forzado bajo la DPA.

Otra opción bajo evaluación es declarar a Anthropic como “supply chain risk”. Esa designación obligaría a numerosas empresas contratistas del Pentágono a certificar que Claude no forma parte de sus flujos de trabajo.

El precedente de la operación en Venezuela

Uno de los puntos de conflicto mencionados en la reunión fue el uso de Claude durante la operación del 3 de enero contra el mandatario venezolano Nicolás Maduro.

Según Axios, el uso del modelo en esa operación se realizó a través de la asociación entre Anthropic y Palantir. Hegseth habría mencionado que el Pentágono sostiene que Anthropic expresó preocupaciones a Palantir sobre ese uso.

Amodei negó que la empresa hubiera planteado objeciones más allá de conversaciones operativas estándar. También reiteró que las líneas rojas de la compañía nunca han impedido el trabajo del ejército ni generado problemas en el terreno.

xAI entra en escena

Mientras se desarrolla esta disputa, la empresa xAI de Elon Musk firmó recientemente un contrato para introducir su modelo Grok en entornos clasificados.

Según fuentes citadas por Axios, el Pentágono también acelera conversaciones con OpenAI y Google para migrar sus modelos, ya utilizados en entornos no clasificados, hacia sistemas clasificados.

Una fuente indicó que actualmente Claude se encuentra por delante en varias aplicaciones relevantes para el ámbito militar, incluyendo capacidades ofensivas en ciberseguridad.

En paralelo, una recopilación publicada en X por la usuaria @heyshrutimishra afirmó que xAI compite por un contrato de USD $100.000.000 para desarrollar software de enjambres de drones autónomos controlados por voz para operaciones ofensivas.

Según esa publicación, el sistema permitiría que un comandante emita una orden verbal que sea traducida a comandos digitales, coordinando drones que ejecutarían acciones sin intervención humana posterior.

Axios no confirmó todos los detalles técnicos mencionados en dicha publicación, aunque sí informó que Grok fue contratado para entornos clasificados.

Las opciones de Anthropic

De acuerdo con la información recopilada, Anthropic enfrenta tres posibles escenarios:

  • El primero consiste en aceptar las condiciones del Pentágono y eliminar restricciones, manteniendo un contrato que, según la publicación en X, asciende a USD $200.000.000.
  • El segundo implicaría mantener sus límites éticos, perder el contrato y enfrentar una posible designación como riesgo en la cadena de suministro.
  • El tercero, descrito en la publicación como “opción nuclear”, sería relocalizar la empresa fuera de Estados Unidos.

Tras la reunión, un portavoz de Anthropic declaró que Dario Amodei expresó agradecimiento por el trabajo del Departamento de Defensa y sostuvo conversaciones de buena fe sobre la política de uso.

La disputa plantea una cuestión más amplia sobre si las empresas tecnológicas pueden establecer límites éticos en contratos de defensa o si el gobierno puede exigir acceso ilimitado bajo argumentos de seguridad nacional.


Artículo escrito con ayuda de un redactor de contenido de IA, editado por Angel Di Matteo / DiarioBitcoin

Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público


ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.

Suscríbete a nuestro boletín