Por Canuto  

Google se sumó a la creciente lista de grandes laboratorios de inteligencia artificial que ya colaboran con el Departamento de Defensa de Estados Unidos en trabajos clasificados. El acuerdo, reportado por la prensa especializada y recogido por Reuters, reaviva el debate sobre los límites de la IA en seguridad nacional, la supervisión humana y el uso de estas herramientas en redes sensibles del gobierno.

***

  • Google firmó un acuerdo clasificado con el Pentágono para usar sus modelos de IA en trabajo sensible del gobierno estadounidense.
  • El contrato permitiría el uso de la IA de Google para “cualquier propósito gubernamental legal”, con cláusulas sobre supervisión humana.
  • El caso vuelve a poner presión sobre las salvaguardas de la IA en temas como vigilancia doméstica y armas autónomas.

 


Google, subsidiaria de Alphabet, firmó un acuerdo clasificado con el Departamento de Defensa de Estados Unidos para permitir el uso de sus modelos de inteligencia artificial en trabajo confidencial del gobierno.

La noticia fue reportada por The Information y luego recogida por Reuters, que indicó que la empresa se suma así a una lista cada vez más amplia de laboratorios tecnológicos vinculados a proyectos sensibles de seguridad nacional.

De acuerdo con el reporte, el convenio autoriza al Pentágono a utilizar la IA de Google para “cualquier propósito gubernamental legal”. Esa formulación coloca a la compañía junto a OpenAI y xAI, la firma de Elon Musk, que también cuentan con acuerdos para suministrar modelos de IA para uso clasificado dentro del aparato de defensa estadounidense.

Para los lectores menos familiarizados con este terreno, las redes clasificadas son entornos informáticos separados del internet convencional. Se emplean para manejar tareas delicadas del Estado, entre ellas la planificación de misiones, el procesamiento de inteligencia y, según se señaló en el reporte, incluso la selección de objetivos de armas en determinados contextos operativos.

La expansión de la IA comercial hacia estos entornos marca un cambio relevante. Hasta hace poco, muchas de estas herramientas se asociaban sobre todo con productividad, automatización empresarial y asistentes conversacionales. Ahora, el interés del gobierno de Estados Unidos apunta a integrar esos mismos modelos en tareas mucho más sensibles, donde la seguridad, la responsabilidad y el control humano se vuelven temas centrales.

Un mercado de defensa cada vez más abierto a la IA

El Pentágono ya había dado señales claras de esta estrategia. En 2025, el Departamento de Defensa firmó acuerdos valorados en hasta USD $200.000.000 cada uno con importantes laboratorios de IA, entre ellos Anthropic, OpenAI y Google. Ese dato refleja no solo el peso presupuestario del tema, sino también la velocidad con la que Washington busca incorporar estas tecnologías a sus operaciones.

Reuters también había informado previamente que el Pentágono presionó a empresas líderes del sector, como OpenAI y Anthropic, para que pusieran sus herramientas a disposición en redes clasificadas sin aplicar las restricciones estándar que normalmente rigen para otros usuarios. Esa exigencia sugiere que el gobierno buscó un margen operativo más amplio del que suelen permitir los productos comerciales convencionales.

En este nuevo contexto, el acuerdo de Google no aparece como un caso aislado, sino como parte de una tendencia más amplia. Las grandes compañías de IA se encuentran cada vez más cerca del sector defensa, aun cuando esa proximidad genera tensiones políticas, éticas y reputacionales dentro de la propia industria tecnológica.

El asunto también importa para quienes siguen la convergencia entre tecnología, mercados y geopolítica. Los contratos públicos de alto valor pueden redefinir qué empresas dominan la infraestructura de IA, cómo se fijan los estándares de seguridad y qué tipo de capacidades se priorizan en la próxima fase de competencia tecnológica global.

Las salvaguardas y sus límites

Según el informe citado, el acuerdo de Google exige que la empresa ayude a ajustar la configuración de seguridad y los filtros de IA a solicitud del gobierno. Ese detalle es especialmente sensible, porque sugiere que los mecanismos de control del modelo no serían estáticos, sino adaptables según las necesidades operativas de la administración estadounidense.

El contrato incluye además un texto específico. Allí se establece que “las partes acuerdan que el Sistema de IA no está destinado a, y no debe utilizarse para, vigilancia masiva doméstica ni armas autónomas, incluida la selección de objetivos, sin la supervisión y el control humanos apropiados”. Esa redacción apunta a fijar una línea de contención formal frente a dos de los usos más controvertidos de la IA militar.

Sin embargo, el mismo acuerdo también contiene una limitación importante. Según el reporte, el documento señala que no otorga a Google el derecho de controlar o vetar la toma de decisiones operativas legales del gobierno. En otras palabras, la empresa puede proveer la tecnología y colaborar en parámetros de seguridad, pero no tendría capacidad para frenar decisiones oficiales consideradas legales por las autoridades.

Esa combinación de cláusulas muestra el delicado equilibrio que intentan construir las partes. Por un lado, se incluyen principios para restringir ciertos usos extremos. Por otro, se deja claro que la conducción final de las operaciones recae en el gobierno y no en el proveedor tecnológico. Para muchos observadores, ahí reside precisamente el núcleo de la preocupación pública.

La postura de Google y el debate político

Reuters indicó que no pudo verificar de forma independiente el informe. Tampoco obtuvo una respuesta inmediata del Departamento de Defensa de Estados Unidos, institución que, según el texto fuente, fue renombrada como Departamento de Guerra por el presidente Donald Trump. Ese detalle añade una capa política al anuncio, aunque el contenido del acuerdo sigue centrado en la adopción de IA para usos clasificados.

Google, por su parte, afirmó que apoya a agencias gubernamentales tanto en proyectos clasificados como no clasificados. Un portavoz de la compañía sostuvo que la empresa sigue comprometida con el consenso de que la IA no debe usarse para vigilancia masiva doméstica ni para armamento autónomo sin la supervisión humana adecuada.

La empresa también defendió el enfoque técnico del acuerdo. “Creemos que proporcionar acceso API a nuestros modelos comerciales, incluso en infraestructura de Google, con prácticas y términos estándar de la industria, representa un enfoque responsable para apoyar la seguridad nacional”, dijo un portavoz de Google a Reuters.

La formulación importa porque busca presentar el contrato no como una excepción radical, sino como una extensión controlada de servicios ya existentes. Aun así, el contexto militar y clasificado cambia la lectura pública del asunto. Lo que en el ámbito corporativo puede verse como infraestructura de nube e IA, en defensa se interpreta también como poder de decisión, riesgos de abuso y responsabilidad ante posibles consecuencias humanas.

Un precedente tenso con Anthropic

El Pentágono ha dicho que no tiene interés en usar IA para realizar vigilancia masiva sobre ciudadanos estadounidenses ni para desarrollar armas que operen sin intervención humana. No obstante, también dejó claro que quiere que se permita “cualquier uso legal” de la inteligencia artificial, una expresión amplia que ha generado fricciones con algunos proveedores.

Anthropic vivió un episodio ilustrativo a comienzos de este año. Según el reporte, la startup enfrentó repercusiones después de negarse a retirar las salvaguardas que impedían el uso de su IA para armas autónomas o vigilancia doméstica. Como consecuencia, el departamento designó al fabricante de Claude como un riesgo para la cadena de suministro.

Ese antecedente ayuda a entender la importancia del acuerdo con Google. Más allá del contrato en sí, revela el tipo de relación que hoy busca el gobierno estadounidense con los desarrolladores de IA. La prioridad parece ser el acceso amplio a modelos avanzados en entornos clasificados, incluso cuando ello exige renegociar límites, filtros y criterios de despliegue.

En conjunto, el caso ilustra una transformación de fondo. La inteligencia artificial ya no solo compite en mercados de consumo, productividad o búsqueda en línea. También se está consolidando como una pieza estratégica en seguridad nacional, con implicaciones para la industria tecnológica, la regulación y la discusión ética sobre hasta dónde debe llegar el uso estatal de estos sistemas.


Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público

Este artículo fue escrito por un redactor de contenido de IA

 


ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.

Suscríbete a nuestro boletín