Por Hannah Pérez  

Claude de Anthropic habría sido utilizada por el Departamento de Defensa de Estados Unidos para la operación de intervención militar en Venezuela a inicios de enero 2026 que conllevó a la captura de Maduro. 

***

  • Por primera vez, un chatbot de IA popular se utiliza en una acción militar clasificada de EE. UU.
  • Según informes, el Pentágono habría aprovechado la tecnología de Anthropic para capturar a Maduro.
  • Se estima que podría haber empleado Claude para análisis de imágenes satelitales e inteligencia. 
  • Mientras Pentágono expande el uso de IA, podría estar violando los términos de uso de Anthropic.

 

El Departamento de Defensa de Estados Unidos utilizó el modelo de inteligencia artificial (IA) Claude, desarrollado por Anthropic, durante la operación militar que resultó en la captura del líder venezolano Nicolás Maduro en Caracas a principios de enero.

Según un informe exclusivo de The Wall Street Journal, esta es una de las primeras instancias conocidas en las que un modelo de IA de gran escala se integró en una acción militar clasificada del Pentágono.

La redada, que tuvo lugar la madrugada del 3 de enero de 2026 y que involucró serie de ataques de precisión quirúrgica, culminó con la detención de Maduro sin bajas estadounidenses reportadas. Sin embargo, autoridades de Venezuela y Cuba afirmaron que decenas de soldados y personal de seguridad de ambos países murieron durante el enfrentamiento.

El Pentágono no ha revelado detalles específicos sobre el rol exacto de Claude en la misión, pero fuentes indican que la IA se empleó para procesar datos en tiempo real durante la fase activa de la operación, así como en análisis previos de imágenes satelitales e inteligencia.

Posibles aplicaciones incluyen la síntesis de datos, el soporte en la toma de decisiones en tiempo real, la interpretación de datos satelitales, el resumen de documentos o incluso el control de drones autónomos.

Pentágono expande su uso de IA

Claude fue desplegado a través de una asociación entre Anthropic y Palantir, una compañía que colabora con el Departamento de Defensa y agencias federales de aplicación de la ley en Estados Unidos.

A diferencia de herramientas de otras empresas como OpenAI, que se limitan a redes no clasificadas, Claude está disponible en entornos clasificados, lo que facilita su integración en operaciones sensibles.

Según informes, el Pentágono está expandiendo el uso de IA en todos los niveles de clasificación, alineado con la visión del secretario de Defensa, Pete Hegseth, quien en diciembre declaró: “El futuro de la guerra estadounidense está aquí, y se escribe con IA“. En enero, Hegseth enfatizó que el departamento no emplearía modelos de IA que impidan “luchar guerras“.

Supuestas tensiones con Anthropic

La revelación ha generado tensiones entre el Pentágono y Anthropic. Tras el operativo, representantes de la empresa consultaron al Departamento de Defensa (al que se refieren en algunos contextos como Departamento de Guerra) sobre si su software se utilizó en la redada, lo que generó preocupaciones internas sobre una posible desaprobación por parte de Anthropic.

Un alto funcionario de la administración Trump afirmó: “Cualquier empresa que ponga en peligro el éxito operativo de nuestros combatientes en el campo es una con la que necesitamos reevaluar nuestra asociación en el futuro”. Esto ha llevado a consideraciones para cancelar un contrato valorado en 200 millones de dólares con la firma.

Anthropic reitera sus políticas pacifistas y anti-vigilancia

Anthropic, por su parte, negó haber realizado una llamada específica al Departamento de Defensa y reiteró su política de uso.

No podemos comentar si Claude, o cualquier otro modelo de IA, se utilizó en alguna operación específica, clasificada o no. Cualquier uso de Claude —ya sea en el sector privado o en el gobierno— debe cumplir con nuestras Políticas de Uso“. Estas políticas prohíben el empleo de Claude para actividades que involucren violencia, diseño de armas o vigilancia masiva, y exigen cumplimiento en todos los despliegues.

El incidente destaca las crecientes tensiones en las relaciones entre laboratorios de IA y el sector militar estadounidense. Mientras el Pentágono busca un uso irrestricto de la tecnología que cumpla con las leyes, empresas como Anthropic negocian salvaguardas para evitar aplicaciones en vigilancia masiva de estadounidenses o armas completamente autónomas.

Funcionarios del Pentágono han expresado frustración con estas restricciones, en un contexto donde la integración rápida de IA en operaciones militares es una prioridad.

Claude entre las apps más populares

La captura de Maduro, quien ha liderado Venezuela durante años, marca un hito en las relaciones entre Estados Unidos y el país sudamericano, aunque los detalles clasificados limitan una comprensión completa del rol de la IA en el éxito de la misión.

Mientras, en medio de esta controversia, Claude entró esta semana al top 10 de las apps más descargadas en la App Store en Estados Unidos tras la emisión de sus anuncios durante el Super Bowl. En su propaganda, Claude se burló de la IA presentando escenarios oscuramente cómicos de personas que buscan consejos de chatbots, solo para ser dirigidas a sitios de citas de «cougars» (mujeres mayores en busca de vínculos sexuales y afectivos con hombres más jóvenes) y plantillas para aumentar la altura.


Artículo redactado con ayuda de IA, editado por DiarioBicoin

Imagen generada con herramienta de IA, bajo licencia de uso libre

 


ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.

Suscríbete a nuestro boletín