Anthropic enfrenta un escenario inusual: mientras su modelo Claude sigue siendo utilizado por el Departamento de Defensa de EE. UU. en medio del conflicto con Irán, clientes clave del sector defensa están migrando a competidores tras una directiva presidencial y crecientes temores sobre riesgos de cadena de suministro.
***
- Una orden del presidente Trump instruye a agencias civiles a discontinuar productos de Anthropic, pero concede seis meses para cerrar operaciones con el Departamento de Defensa.
- Reportes periodísticos describen el uso de Claude junto al sistema Maven de Palantir para sugerir y priorizar objetivos con coordenadas precisas.
- Contratistas y startups de defensa ya están reemplazando Claude, mientras el secretario de Defensa, Pete Hegseth, amenaza con designar a Anthropic como riesgo en la cadena de suministro.
🚨 Crisis en la defensa de EE. UU. 🚨
Anthropic sigue bajo la mira tras su uso de Claude por el Departamento de Defensa
Mientras tanto, clientes del sector defensa se están alejando hacia competidores debido a nuevas órdenes presidenciales
La IA sugiere objetivos militares en… pic.twitter.com/LU2Oagp8ZU
— Diario฿itcoin (@DiarioBitcoin) March 4, 2026
El conflicto público y político que rodea a Anthropic, una de las compañías más influyentes en modelos de lenguaje, dejó a la empresa en una posición difícil de sostener. Por un lado, su modelo Claude continúa en uso dentro del Departamento de Defensa de EE. UU. (DoD) Por el otro, una parte relevante de la industria de tecnología para defensa está abandonando su software y migrando a alternativas.
La paradoja se vuelve más aguda por el momento en que ocurre. La directiva del presidente Donald Trump instruyó a las agencias civiles a discontinuar el uso de productos de Anthropic. Sin embargo, se otorgó a la compañía un plazo de seis meses para finalizar sus operaciones con el DoD, lo que creó una ventana operativa con reglas distintas según el tipo de agencia.
Un día después de esa directiva, Estados Unidos e Israel lanzaron un ataque sorpresa contra Teherán. Ese hecho introdujo un elemento urgente: un conflicto en curso entre EE. UU. e Irán antes de que la orden pudiera implementarse por completo. En ese contexto, la continuidad tecnológica pasó a depender tanto de plazos administrativos como del ritmo de una campaña militar activa, detalla TechCrunch.
Para lectores nuevos, conviene aclarar por qué esto importa. Los modelos de lenguaje se han convertido en una capa de apoyo analítico en múltiples industrias. En defensa, su uso puede abarcar desde síntesis de reportes hasta apoyo en flujos de inteligencia. Por eso, cualquier cambio regulatorio o contractual tiene impacto directo en proveedores, integradores y, en este caso, en decisiones operativas.
Restricciones superpuestas y un limbo operativo
El núcleo de la confusión, según el reporte original, proviene de restricciones superpuestas y contradictorias impuestas por el propio gobierno de EE. UU. La orden presidencial busca cortar el uso de productos de Anthropic en agencias civiles. A la vez, permitió mantener el vínculo con el DoD durante seis meses para cerrar operaciones de forma gradual.
Ese diseño, que quizá buscaba reducir disrupción, terminó creando un estado intermedio. En la práctica, mientras avanza el conflicto, no existe un impedimento legal inmediato que bloquee el uso de Claude dentro del aparato militar. Esto deja a Anthropic expuesta a la crítica pública por ser parte de sistemas militares, incluso cuando su presencia en otros segmentos gubernamentales se reduce.
La situación se acentúa por declaraciones que todavía no se convierten en acciones formales. El secretario de Defensa, Pete Hegseth, prometió designar a la compañía como un riesgo en la cadena de suministro. Sin embargo, el artículo indica que no se han tomado pasos oficiales para ejecutar esa designación.
En términos prácticos, la falta de una medida oficial significa que el uso del sistema no enfrenta barreras legales inmediatas. Esto abre un espacio de tiempo en el que el DoD puede seguir operando con herramientas existentes. Al mismo tiempo, la industria privada vinculada a defensa debe decidir si asume el riesgo reputacional y contractual de seguir usando Claude.
Claude en el conflicto: integración con Maven y selección de objetivos
En paralelo al debate político, han surgido nuevos detalles sobre el uso específico de estos sistemas en el teatro de operaciones. The Washington Post reportó este miércoles que los sistemas de Anthropic se están utilizando junto con el sistema Maven de Palantir. El foco del reporte es la planificación de ataques y la función de apoyo que la IA cumple en ese proceso.
De acuerdo con esa descripción, los sistemas “sugirieron cientos de objetivos, emitieron coordenadas de ubicación precisas y priorizaron esos objetivos según su importancia”. El reporte caracterizó la función como “selección de objetivos en tiempo real y priorización de objetivos”. Esas frases, por sí mismas, colocan el uso de la IA en una categoría especialmente sensible.
La combinación con Maven también es relevante por la forma en que suelen integrarse herramientas de defensa. Este es conocido como un sistema asociado a flujos de inteligencia y análisis para operaciones. La noticia sugiere una interacción estrecha entre la capa de análisis y la de priorización de objetivos, con Claude formando parte de ese engranaje.
Este tipo de implementación pone sobre la mesa preguntas que van más allá de una sola empresa. ¿Qué controles se aplican cuando un modelo sugiere objetivos? ¿Qué rol queda para la revisión humana? El texto fuente no responde esas preguntas, pero el hecho de que el uso se describa en tiempo real eleva el interés público y regulatorio.
La fuga de clientes de defensa y el reemplazo por competidores
Mientras el DoD mantiene el uso, el sector privado de defensa parece moverse en dirección contraria. Un informe de Reuters señaló que Lockheed Martin y otros contratistas de defensa comenzaron a sustituir los modelos de Anthropic esta semana. El movimiento sugiere una reacción rápida para reducir exposición ante cambios regulatorios y señales políticas adversas.
El patrón se repite en niveles más pequeños de la cadena. Muchos subcontratistas estarían en una situación similar, intentando anticiparse a un posible veto formal o a restricciones más amplias. En defensa, donde los contratos suelen exigir continuidad y cumplimiento, el riesgo de quedar atado a un proveedor cuestionado puede volverse un costo inmediato.
La evidencia más concreta sobre el efecto en startups y proveedores emergentes proviene de declaraciones citadas en otro reporte. Un socio gerente de J2 Ventures dijo a CNBC que 10 de sus compañías de cartera “han retrocedido en su uso de Claude para casos de uso de defensa y están en proceso activo de reemplazar el servicio con otro”. La cifra refleja una tendencia de sustitución ya en marcha, detalla TechCrunch.
En conjunto, estas salidas dibujan un escenario mixto: uso activo en una zona de guerra, pero pérdida acelerada de tracción en el mercado de defensa tecnológica. Para una compañía de IA, esa combinación puede resultar particularmente dañina. Mantiene el costo reputacional del uso militar, mientras reduce ingresos y alianzas en el mismo sector.
La amenaza de “riesgo en cadena de suministro” y el posible choque legal
La pregunta central que queda abierta es si Pete Hegseth cumplirá su promesa de designar a Anthropic como un riesgo en la cadena de suministro. Esa etiqueta, en el ecosistema de compras y tecnología gubernamental, puede traducirse en restricciones severas y en decisiones de sustitución obligatoria. También puede disparar litigios complejos.
El artículo plantea que una designación formal probablemente llevaría a un caso legal acalorado. Es un punto crítico porque, si el DoD y contratistas ya dependen de un sistema integrado, el costo de transición no es trivial. Aun así, el mercado suele reaccionar antes que los tribunales, como lo muestra el reemplazo acelerado por parte de contratistas y startups.
Hasta ahora, el texto indica que no existen pasos oficiales que hayan convertido esa promesa en política ejecutable. Por eso, el sistema continúa disponible dentro de los marcos actuales. Esa ambigüedad es precisamente lo que empuja a muchos clientes privados a migrar primero y preguntar después.
El resultado, por el momento, es un laboratorio líder de IA que queda rápidamente apartado de la tecnología militar comercial, incluso mientras sus modelos continúan operando en un conflicto activo. En términos de industria, el episodio retrata cómo la geopolítica puede reordenar alianzas tecnológicas en cuestión de días, y cómo la IA se ha convertido en un activo estratégico bajo escrutinio constante.
Artículo escrito con ayuda de un redactor de contenido de IA, editado por Angel Di Matteo / DiarioBitcoin
Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público
ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.
Suscríbete a nuestro boletín
Artículos Relacionados
Fundación Ethereum quiere convertir a la red en una capa de confianza para la IA
Así reconstruyeron el prompt del sistema de Grok 4.20 beta 2 siguiendo trazas de agentes
TikTok descarta cifrado de extremo a extremo en mensajes directos y reabre debate sobre privacidad