El Departamento de Defensa de Estados Unidos ya trabaja en modelos de lenguaje alternativos a Anthropic, tras el colapso de un contrato de USD $200 millones marcado por desacuerdos sobre vigilancia, armas autónomas y acceso irrestricto a la IA.
***
- El Pentágono confirmó que ya inició trabajo de ingeniería en múltiples LLM dentro de entornos de propiedad gubernamental.
- El contrato de USD $200 millones con Anthropic se vino abajo por diferencias sobre límites al uso militar de la IA.
- OpenAI y xAI ya avanzaron con acuerdos propios con el Departamento de Defensa, incluso para sistemas clasificados.
El Departamento de Defensa de Estados Unidos está desarrollando alternativas a la tecnología de Anthropic, una señal de que la relación entre ambas partes difícilmente volverá a encarrilarse en el corto plazo. La noticia surge después de semanas de tensión en torno al colapso de un contrato valorado en USD $200 millones.
De acuerdo con el reporte publicado por TechCrunch, el Pentágono ya inició trabajos de ingeniería para contar con varios modelos de lenguaje en entornos apropiados de propiedad gubernamental. La meta, según funcionarios del área digital y de IA, es que estas herramientas estén disponibles para uso operativo en poco tiempo.
El caso refleja un cambio importante en la carrera por integrar inteligencia artificial avanzada en estructuras estatales sensibles. También deja ver que, cuando los proveedores privados intentan imponer límites éticos o contractuales, el Estado puede optar por diversificar alianzas o desarrollar capacidades propias.
Para lectores menos familiarizados con el tema, los LLM o modelos de lenguaje de gran escala son sistemas de IA entrenados con enormes volúmenes de datos para comprender y generar texto. En contextos militares, estos sistemas podrían emplearse para análisis, automatización de procesos, apoyo en decisiones y gestión de información clasificada, lo que vuelve especialmente delicado el debate sobre sus restricciones de uso.
El Pentágono acelera el desarrollo de sus propios modelos
Según una conversación de Bloomberg con Cameron Stanley, principal oficial digital y de IA del Pentágono, el Departamento está avanzando activamente en múltiples alternativas. Sus declaraciones apuntan a un esfuerzo de sustitución que ya no parece preliminar, sino en marcha.
Stanley dijo que “el Departamento está persiguiendo activamente múltiples LLM en los entornos apropiados de propiedad gubernamental”. Añadió que “el trabajo de ingeniería ha comenzado en estos LLM, y esperamos tenerlos disponibles para el uso operativo muy pronto”.
La redacción de esa declaración es importante porque sugiere una preferencia por infraestructura controlada por el propio gobierno. En vez de depender por completo de un solo proveedor comercial, el Pentágono busca operar modelos en ambientes bajo su dominio, algo que puede responder tanto a motivos de seguridad nacional como a conflictos contractuales recientes.
Este enfoque también encaja con una tendencia más amplia en defensa y ciberseguridad. Las agencias estatales quieren cada vez más control sobre los sistemas que usan, sobre todo si procesan material sensible o si pueden incidir en tareas críticas relacionadas con vigilancia, inteligencia o despliegue militar.
Por qué se rompió el acuerdo con Anthropic
El contrato entre Anthropic y el Departamento de Defensa, valorado en USD $200 millones, se desmoronó en las últimas semanas. La causa central fue la imposibilidad de llegar a un acuerdo sobre el grado de acceso sin restricciones que el ejército podría tener sobre la IA de la empresa.
Anthropic buscaba incorporar una cláusula contractual para impedir que su tecnología se utilizara en vigilancia masiva de ciudadanos estadounidenses. También quería prohibir su uso para desplegar armas capaces de disparar sin intervención humana.
El Pentágono no aceptó esos límites. Ese punto de quiebre terminó por hundir el acuerdo y abrió la puerta a otros actores del sector que sí estuvieron dispuestos a avanzar en cooperación con el aparato militar estadounidense.
El trasfondo del conflicto es relevante porque muestra uno de los debates más sensibles de la IA actual. No se trata solo de quién provee el modelo más potente, sino de quién decide las reglas sobre vigilancia, autonomía letal y control operacional. En defensa, esas diferencias pueden ser suficientes para romper un contrato multimillonario.
OpenAI y xAI ocupan espacio en defensa
Tras la caída del acuerdo con Anthropic, OpenAI intervino y firmó su propio convenio con el Pentágono. Paralelamente, el Departamento de Defensa también suscribió un acuerdo con xAI, la empresa de Elon Musk, para usar Grok en sistemas clasificados.
Estas decisiones muestran que el Pentágono no frenó su agenda de adopción de IA por la ruptura con Anthropic. Más bien, la reorganizó con otros proveedores y, al mismo tiempo, empezó a construir opciones internas para reducir dependencia tecnológica.
La presencia de OpenAI y xAI en este entorno también eleva la competencia entre empresas de IA por contratos públicos de alto valor estratégico. En la práctica, el sector defensa se consolida como uno de los mayores campos de expansión para modelos avanzados, incluso cuando persisten dudas éticas y regulatorias.
Para la industria tecnológica, el mensaje es claro. Quienes quieran trabajar con el Estado en áreas sensibles deberán navegar una línea compleja entre principios corporativos, riesgos reputacionales, exigencias de seguridad y la voluntad gubernamental de mantener máxima flexibilidad operativa.
Una reconciliación luce cada vez menos probable
Aunque algunos reportes habían sugerido una pequeña posibilidad de reconciliación entre Anthropic y el Pentágono, las nuevas declaraciones indican que Washington se está preparando para seguir adelante sin esa empresa. El hecho de que ya existan trabajos de ingeniería para reemplazar su tecnología refuerza esa lectura.
En términos prácticos, eliminar tecnología de un proveedor de flujos de trabajo sensibles no suele ser una decisión temporal. Requiere tiempo, recursos y rediseño de procesos. Por eso, el anuncio sugiere un distanciamiento más estructural y no solo un impasse de negociación.
La situación se volvió aún más tensa luego de que el secretario de Defensa, Pete Hegseth, declarara a Anthropic como un riesgo para la cadena de suministro. Esa clasificación suele reservarse para adversarios extranjeros y tiene efectos serios sobre la red de contratistas vinculados al Pentágono.
En concreto, la designación prohíbe a las empresas que trabajan con el Pentágono colaborar también con Anthropic. La compañía está impugnando esa medida ante los tribunales, por lo que el conflicto ya no es solamente comercial o político, sino también judicial.
Lo que revela este episodio sobre la IA y el poder estatal
Más allá del caso puntual, el episodio expone una tensión creciente entre desarrolladores de IA y gobiernos. Las empresas buscan establecer límites sobre cómo se usan sus sistemas, especialmente en escenarios de vigilancia o uso letal, mientras los Estados suelen resistirse a aceptar restricciones que puedan afectar su margen de acción.
También deja en evidencia que el poder de negociación puede inclinarse rápido cuando un comprador es el aparato de defensa de Estados Unidos. Si un proveedor no acepta ciertas condiciones, el gobierno puede buscar a un competidor o impulsar desarrollos propios con apoyo institucional y presupuestario.
Desde una perspectiva más amplia, este tipo de movimientos podría acelerar la creación de ecosistemas de IA menos dependientes de firmas concretas. Eso tendría implicaciones para seguridad nacional, gobernanza tecnológica y competencia empresarial, incluso fuera del ámbito militar.
Por ahora, los hechos conocidos son claros. El Pentágono ya trabaja en LLM alternativos dentro de entornos gubernamentales, el contrato de USD $200 millones con Anthropic colapsó por desacuerdos sobre vigilancia y armas autónomas, OpenAI y xAI ya ganaron espacio en defensa, y Anthropic enfrenta además una disputa judicial por su designación como riesgo de cadena de suministro.
Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público.
Este artículo fue escrito por un redactor de contenido de IA y revisado por un editor humano para garantizar calidad y precisión.
ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.
Suscríbete a nuestro boletín
Artículos Relacionados
Bancos y Pagos
Candex amplía su Serie C a más de USD $40 millones con inversión de HSBC
IA
OpenAI lanza GPT-5.4 mini y nano con rendimiento cercano al modelo principal
Empresas
Google revela su plan energético para centros de datos con 2,7 GW en Michigan
Empresas