OpenAI reveló que su nuevo acuerdo para desplegar IA en la red clasificada del Departamento de Defensa de EE.UU. incorpora “protecciones en capas” y tres líneas rojas que buscan limitar usos sensibles. El anuncio llega tras una orden del presidente Donald Trump para que el gobierno deje de trabajar con Anthropic, en un giro que reacomoda el tablero de la IA en seguridad nacional.
***
- OpenAI afirma que su pacto con el Pentágono incluye salvaguardas adicionales y tres prohibiciones de uso.
- Donald Trump ordenó dejar de trabajar con Anthropic, mientras el Pentágono evalúa designarla como riesgo de cadena de suministro.
- El Pentágono ha firmado acuerdos de hasta USD $200 millones con laboratorios de IA, buscando flexibilidad en defensa.
🚨 OpenAI firma contrato con el Pentágono para implementar IA en redes clasificadas.
El pacto incluye tres líneas rojas que prohíben el uso para vigilancia masiva, armas autónomas y decisiones automatizadas de alto riesgo.
Este acuerdo marca un hito en la integración de… pic.twitter.com/jpqHY2dTPh
— Diario฿itcoin (@DiarioBitcoin) March 1, 2026
Un acuerdo para llevar IA a una red clasificada
OpenAI informó que el acuerdo firmado con el Pentágono para desplegar su tecnología en la red clasificada del Departamento de Defensa de EE.UU. incluye salvaguardas adicionales para proteger los casos de uso permitidos. La empresa comunicó los detalles el sábado 28 de febrero, un día después de anunciar el pacto.
En términos prácticos, el anuncio apunta a uno de los temas más sensibles del debate actual sobre inteligencia artificial: cómo controlar herramientas capaces de razonar, resumir, buscar patrones y generar contenido cuando se integran a entornos militares. En este tipo de redes, la prioridad suele ser la seguridad operativa, la clasificación de la información y el control de accesos.
La discusión no ocurre en el vacío. En el último año, el Pentágono ha estado acercándose a los grandes laboratorios de IA con contratos que pueden alcanzar montos relevantes. Según Reuters, el Departamento de Defensa firmó acuerdos por hasta USD $200 millones cada uno con Anthropic, OpenAI y Google.
Para un público que sigue tecnología, mercados e infraestructura digital, estas alianzas también marcan una tendencia: la IA se vuelve un componente estratégico comparable a la nube y la ciberseguridad. Y cuando ese componente entra a redes clasificadas, la pregunta deja de ser solo “qué puede hacer”, para pasar a “qué no se permitirá que haga”.
El contexto político: Trump, Anthropic y la fricción por límites de seguridad
El giro que rodea el acuerdo de OpenAI está atravesado por decisiones políticas. Reuters reportó que el presidente de EE.UU., Donald Trump, ordenó el viernes al gobierno dejar de trabajar con Anthropic. En paralelo, el Pentágono indicó que declararía a la startup como un riesgo para la cadena de suministro.
De acuerdo con la misma fuente, la decisión representó un golpe fuerte para el laboratorio de IA, tras una confrontación relacionada con límites de seguridad tecnológica. En un sector donde las políticas de uso y las restricciones internas pesan cada vez más, ese tipo de choque puede convertirse en un factor determinante para la contratación pública.
Anthropic, por su parte, dijo que desafiaría en la corte cualquier designación como riesgo. Esta respuesta subraya lo que está en juego: no solo ingresos potenciales, sino reputación y elegibilidad para proyectos de alto impacto, donde el Estado actúa como comprador y como regulador de facto.
En ese entorno, la sincronía temporal resulta clave. Poco después de conocerse la orden contra Anthropic, OpenAI, respaldada por Microsoft, Amazon, SoftBank y otros, anunció su propio acuerdo el viernes por la noche. La lectura del mercado es inevitable: cuando un proveedor queda bajo sospecha, otro puede ocupar el espacio, pero con nuevas condiciones y mensajes de control.
Las “tres líneas rojas” que OpenAI asegura haber fijado
OpenAI sostuvo que su contrato con el Departamento de Defensa, el cual la administración Trump ha renombrado como el “Departamento de Guerra”, impone tres líneas rojas. La primera es que la tecnología de OpenAI no puede usarse para vigilancia masiva doméstica.
La segunda línea roja prohíbe que la tecnología se utilice para dirigir sistemas de armas autónomos. Este punto toca el centro de la controversia global sobre autonomía letal y decisiones de uso de fuerza mediadas por algoritmos, un tema que suele despertar preocupación ética y legal.
La tercera línea roja es que no se empleará para decisiones automatizadas de alto riesgo. Aunque el reporte no detalla qué categorías específicas entran en esa definición, el concepto suele incluir escenarios donde una decisión algorítmica puede generar daños significativos si falla o se aplica sin supervisión.
OpenAI afirmó que su acuerdo tiene más salvaguardas que cualquier acuerdo previo para despliegues de IA clasificada, incluyendo el de Anthropic. En un mercado donde las narrativas de “seguridad” y “responsabilidad” se han convertido en diferenciadores competitivos, la compañía busca presentar sus restricciones como un valor agregado, no como una limitación operativa.
El enfoque de “protecciones en capas”: nube, personal autorizado y contrato
Según OpenAI, las tres líneas rojas se protegen mediante un enfoque más expansivo y en múltiples capas. La empresa explicó que retiene plena discreción sobre su pila de seguridad, lo que implica que no cede el control total de los mecanismos con los que busca prevenir usos indebidos o desbordes funcionales.
La compañía también indicó que el despliegue se realiza a través de la nube. En el contexto de redes clasificadas, esto sugiere una arquitectura donde la administración del entorno, los permisos y las actualizaciones se integran a controles estrictos, aunque el reporte no especifica el proveedor o la configuración técnica exacta.
Otro elemento central es la participación de personal autorizado de OpenAI. Este detalle apunta a un modelo en el que la operación no queda completamente delegada al cliente gubernamental, sino que existe intervención directa del proveedor para supervisar, mantener y resguardar las condiciones de uso pactadas.
Finalmente, OpenAI mencionó “fuertes protecciones contractuales”. En la práctica, este punto traslada parte del control desde lo técnico hacia lo legal. También plantea un marco de cumplimiento donde el uso permitido y el uso prohibido pueden definirse con consecuencias claras, en vez de quedar solo como principios declarativos.
Flexibilidad del Pentágono y el debate sobre IA en armas
El reporte plantea una tensión estructural. Por un lado, los creadores de la tecnología suelen advertir contra usos de IA poco fiable en armas. Por otro, el Pentágono busca preservar toda flexibilidad en defensa y no ser limitado por esas advertencias.
Esta fricción se entiende mejor si se observa la diferencia de incentivos. Los laboratorios de IA enfrentan riesgo reputacional, regulatorio y de seguridad si sus modelos se usan en escenarios críticos con fallas visibles. Las instituciones de defensa, en cambio, priorizan ventajas operativas, velocidad de adopción y capacidad de adaptación.
En ese choque, la noción de “IA clasificada” introduce un elemento adicional: la opacidad. Muchos detalles técnicos no se discuten públicamente por razones obvias, pero aun así se espera que existan límites verificables. De allí que OpenAI enfatice mecanismos en capas, con control de su propia seguridad y participación de su personal.
Para el público que sigue estos temas desde la óptica de mercados e innovación, el caso ilustra cómo la IA dejó de ser solo un producto de consumo o una herramienta empresarial. Cada vez más, se trata de infraestructura estratégica. Y la infraestructura estratégica, cuando se despliega en defensa, se negocia con cláusulas, vetos y vías de terminación.
Cláusulas de terminación y el mensaje sobre Anthropic
OpenAI advirtió que cualquier incumplimiento del contrato por parte del gobierno de EE.UU. podría desencadenar una terminación. La compañía agregó que no espera que eso suceda, pero el aviso cumple una función clara: remarcar que las líneas rojas no son simbólicas, sino condiciones que pueden activar consecuencias.
En la práctica, este tipo de cláusulas también operan como señal para otras partes interesadas. Si el mayor cliente potencial en materia de defensa acepta límites, otros clientes podrían enfrentar estándares similares. A la vez, si un gobierno intenta eludirlos, el proveedor puede buscar protegerse con la opción de retirarse.
En un gesto llamativo, OpenAI también dijo que el rival Anthropic no debería ser etiquetado como un “riesgo para la cadena de suministro”. La empresa afirmó: “Hemos dejado clara nuestra posición sobre esto al gobierno”. El comentario sugiere que, pese a la competencia, existe preocupación por un precedente que podría afectar a toda la industria.
El episodio deja una conclusión abierta. El Estado busca herramientas avanzadas sin restricciones que recorten su margen de maniobra, mientras las compañías intentan evitar que sus modelos queden asociados a vigilancia masiva, armas autónomas o automatización de decisiones críticas. El acuerdo de OpenAI con el Pentágono se inserta exactamente en esa frontera.
Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público.
Este artículo fue escrito por un redactor de contenido de IA y revisado por un editor humano para garantizar calidad y precisión.
ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.
Suscríbete a nuestro boletín
Artículos Relacionados
Claude sube al No. 2 en App Store tras choque de Anthropic con el Pentágono
Tribunal rechaza nuevos intentos de Binance por desestimar demanda civil que data de 2020
Apostó contra un ataque a Irán y perdió USD $6.500.000 en Polymarket