Google amplió el acceso del Departamento de Defensa de EE. UU. a sus sistemas de IA para redes clasificadas, en un movimiento que llega después de que Anthropic se negara a ofrecer condiciones similares por objeciones sobre vigilancia masiva y armas autónomas.
***
- El Pentágono buscaba un uso prácticamente irrestricto de IA en redes clasificadas.
- Anthropic rechazó esos términos y terminó en una disputa legal con el DoD.
- Google se suma a OpenAI y xAI entre las firmas que aprovecharon ese espacio.
Google otorgó al Departamento de Defensa de Estados Unidos acceso a su inteligencia artificial para redes clasificadas, permitiendo en esencia todos los usos legales, según múltiples reportes de prensa. El movimiento se produce después de que Anthropic rechazara conceder al DoD condiciones similares, en una disputa que ya derivó en un proceso judicial.
La decisión vuelve a poner en el centro del debate el papel de las grandes empresas de IA en contratos de defensa. También subraya una tensión cada vez más visible entre la competencia comercial por acuerdos gubernamentales y las exigencias éticas sobre cómo pueden desplegarse estos modelos en contextos sensibles.
De acuerdo con TechCrunch, el Pentágono buscaba un uso irrestricto de herramientas de IA. Anthropic, en cambio, pretendía introducir salvaguardas para evitar que su tecnología terminara empleándose en vigilancia masiva doméstica y en armas autónomas.
Esa diferencia fue decisiva. Tras la negativa de Anthropic a aceptar esos casos de uso, el DoD calificó al fabricante del modelo como un “riesgo para la cadena de suministro”, una designación que normalmente se reserva para adversarios extranjeros. La medida elevó de inmediato el tono del conflicto entre la empresa y el aparato de defensa estadounidense.
Una disputa que terminó en los tribunales
El choque entre Anthropic y el Departamento de Defensa no quedó en el plano político o contractual. Ambas partes están ahora envueltas en una demanda, en la que la empresa cuestiona la mencionada designación de riesgo para la cadena de suministro.
El mes pasado, un juez concedió a Anthropic una orden judicial contra esa designación mientras el caso sigue su curso. Ese detalle es importante porque sugiere que la controversia no solo gira en torno a criterios comerciales, sino también al alcance legal de las represalias que una agencia federal puede adoptar frente a un proveedor que se niega a ciertas condiciones.
Para lectores menos familiarizados con el tema, las redes clasificadas son infraestructuras cerradas que procesan información sensible o reservada del gobierno. Llevar modelos de IA a ese entorno implica abrir la puerta a usos de alto impacto en análisis, automatización, inteligencia y operaciones internas, por lo que las condiciones de acceso importan tanto como la capacidad tecnológica.
En este contexto, la posición de Anthropic marcó una línea de separación clara. La empresa buscó limitar usos que consideraba especialmente delicados, mientras el Pentágono quería una libertad operativa mucho mayor. Esa brecha dejó un espacio que otros proveedores de IA se apresuraron a ocupar.
Google entra donde Anthropic dijo no
Google se convirtió así en la tercera compañía de inteligencia artificial que intenta capitalizar la pérdida de Anthropic. Antes de este acuerdo, OpenAI firmó de inmediato un convenio con el Departamento de Defensa, y xAI hizo lo mismo posteriormente.
El nuevo acuerdo de Google incluye cierto lenguaje que afirma que la empresa no pretende que su IA sea utilizada para vigilancia masiva doméstica ni en armas autónomas. Según reportó The Wall Street Journal, esa redacción se parece a la que ya figura en el contrato de OpenAI con el DoD.
Sin embargo, la misma cobertura señaló que no está claro si tales disposiciones son legalmente vinculantes o ejecutables. En la práctica, eso deja abierta una pregunta central: si una cláusula expresa una intención, pero no impone un límite exigible, ¿qué tan efectiva resulta como salvaguarda real?
La diferencia entre intención contractual y obligación verificable es clave en el debate actual sobre IA y seguridad nacional. Muchas compañías publican principios de uso responsable, pero esos compromisos pueden perder fuerza cuando entran en juego clientes estatales, secretos operativos o necesidades militares de amplio espectro.
Presión interna dentro de Google
Google avanzó con este acuerdo pese a la oposición de parte de su propia plantilla. Un total de 950 empleados firmaron una carta abierta pidiendo a la empresa que siguiera el ejemplo de Anthropic y no vendiera IA al Departamento de Defensa sin salvaguardas similares.
La carta refleja un malestar interno que recuerda tensiones previas en la industria tecnológica estadounidense. En los últimos años, trabajadores de varias grandes empresas han cuestionado contratos con agencias militares o policiales, especialmente cuando perciben riesgos de vigilancia, sesgos algorítmicos o automatización letal.
En el caso de Google, el desacuerdo no parece haber frenado la operación. La empresa no respondió a una solicitud de comentarios citada por la prensa, por lo que no hay una explicación pública adicional sobre cómo interpreta los límites del acuerdo ni sobre la manera en que piensa hacerlos cumplir.
Ese silencio también deja sin respuesta otra cuestión relevante: si la compañía considera suficientes las cláusulas de intención incluidas en el contrato o si prevé mecanismos internos de revisión para usos especialmente sensibles dentro del marco legal estadounidense.
Competencia, defensa y gobernanza de la IA
Más allá del caso puntual, este episodio muestra cómo la carrera por contratos de defensa se está convirtiendo en un frente decisivo para las firmas líderes en IA. El rechazo de Anthropic no redujo la demanda del Pentágono. Más bien redistribuyó la oportunidad entre competidores dispuestos a aceptar un margen mayor de uso.
Eso tiene implicaciones empresariales y políticas. Para el gobierno, diversificar proveedores puede reducir dependencias y acelerar despliegues. Para las compañías, ganar presencia en redes clasificadas puede consolidar relaciones de largo plazo con uno de los clientes más poderosos del mundo.
Al mismo tiempo, el caso expone un problema de gobernanza. Si las restricciones sobre vigilancia masiva o armas autónomas no están claramente definidas como obligaciones verificables, el debate público se desplaza desde la política real hacia formulaciones ambiguas dentro de contratos opacos.
Por ahora, lo confirmado es que Google amplió el acceso del Pentágono a su IA tras la negativa de Anthropic, y que esa negativa desembocó en una batalla legal en curso. También está claro que OpenAI y xAI ya habían aprovechado la misma apertura. Lo que sigue sin resolverse es si la industria de inteligencia artificial podrá fijar límites efectivos cuando la presión comercial y estratégica apunte en sentido contrario.
Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público.
Este artículo fue escrito por un redactor de contenido de IA y revisado por un editor humano para garantizar calidad y precisión.
ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.
Suscríbete a nuestro boletín
Artículos Relacionados
Empresas
Amazon lanza una función de IA con respuestas por audio en páginas de productos
Estados Unidos
David Shapiro desafía a la tech right y defiende la UBI frente a la automatización
Empresas
Amazon Quick: AWS lanza un asistente de IA de escritorio conectado a archivos, correo y apps
IA