Por Canuto  

La disputa entre Anthropic y el Pentágono dejó al descubierto un problema mayor: los modelos de IA más avanzados del mercado no fueron diseñados para las exigencias reales del combate. Ahora, una ola de startups lideradas por veteranos busca desarrollar sistemas más especializados, soberanos y capaces de operar incluso sin conexión a la nube.
***

  • El Pentágono detectó riesgos al depender de modelos comerciales de IA que pueden alucinar, no seguir instrucciones y requerir conexión constante a la nube.
  • Startups como Smack Technologies y webAI apuestan por modelos adaptados a logística, inteligencia, mando y control, además de despliegues en el borde táctico.
  • El Ejército de EE. UU. lanzó el Proyecto Aria mientras crece la presión por herramientas de IA soberanas, seguras y específicas para entornos militares.

 


La carrera por llevar inteligencia artificial al sector defensa en Estados Unidos está entrando en una nueva etapa. El detonante no fue solo el avance de herramientas como Claude, ChatGPT, Gemini o Grok, sino también una creciente incomodidad dentro del Pentágono sobre si esos modelos generalistas realmente sirven para operaciones militares complejas.

El debate tomó fuerza tras la disputa entre Anthropic y el Departamento de Defensa, un episodio que dejó ver una diferencia clave entre lo que ofrecen los grandes laboratorios de IA y lo que necesitan las tropas sobre el terreno. Mientras las grandes tecnológicas crean productos para millones de usuarios y miles de casos de uso, los militares exigen sistemas más específicos, más controlables y que no dependan por completo de una conexión remota.

En ese vacío están entrando varias startups fundadas o financiadas por veteranos. Su tesis es clara: la IA para la guerra no puede limitarse a reutilizar modelos entrenados para conversar con el público general. Debe comprender operaciones, logística, inteligencia, secuencias temporales y razonamiento geoespacial con una profundidad que hoy los modelos comerciales no siempre alcanzan.

La brecha entre la IA comercial y la necesidad militar

Según reportó Defense One, una de las verdades incómodas que reveló la tensión entre Anthropic y el Pentágono es que el propio Departamento de Defensa ya tenía reservas profundas sobre los modelos de lenguaje. Entre sus temores estaban las alucinaciones, la posibilidad de que no siguieran instrucciones con precisión y la tendencia a generar respuestas con aparente seguridad incluso cuando la confiabilidad es baja.

Aun así, el Pentágono permitió un despliegue amplio del modelo de Anthropic, en parte por la urgencia de poner herramientas de IA generativa en manos de operadores militares. Informes citados por el medio señalan que la tecnología habría tenido un papel en la Operación Martillo de Medianoche, la redada que capturó al presidente venezolano Nicolás Maduro, aunque funcionarios del Pentágono no confirmaron ese punto.

Después de esa operación, Anthropic contactó a Palantir para preguntar si sus modelos habían sido usados durante la redada, dijo Emil Michael, subsecretario de Defensa para Investigación e Ingeniería. Michael afirmó que aquello generó un momento de introspección dentro del liderazgo del Pentágono, al evidenciar una posible dependencia excesiva de un solo proveedor de software sin alternativas inmediatas.

Ese nivel de dependencia abrió varias alarmas. Entre ellas, que un proveedor como Anthropic pudiera restringir el acceso a sus modelos en situaciones operativas delicadas. De acuerdo con un funcionario de la propia empresa, Anthropic también compartía preocupaciones similares y no consideraba seguro que el ejército dependiera de sus modelos en escenarios de combate.

La nube como cuello de botella estratégico

Otra limitación central de los modelos de frontera actuales es su necesidad de conectarse a la nube. Eso incluye a Claude de Anthropic, Gemini de Google, ChatGPT de OpenAI y Grok de xAI. Para entornos civiles, este diseño tiene sentido, pero para tropas desplegadas en zonas disputadas puede convertirse en una debilidad crítica.

La razón es simple. Un adversario tecnológicamente avanzado puede degradar o cortar las comunicaciones, dejando fuera de servicio herramientas que dependen de centros de datos remotos. Ese problema afecta tanto al uso táctico diario como a la viabilidad de futuros sistemas autónomos.

OpenAI reconoció de forma implícita esa barrera cuando anunció recientemente un acuerdo para desplegarse en redes clasificadas del Pentágono. Katrina Mulligan, responsable de seguridad nacional en OpenAI, explicó en X que el contrato limita el despliegue a la API en la nube. Añadió que los sistemas autónomos requieren inferencia en el borde y que al restringir el uso a la nube la empresa busca evitar la integración directa de sus modelos en armas, sensores u otro hardware operativo.

Para muchos dentro del ecosistema de defensa, esa explicación resalta exactamente el problema. Lo que las fuerzas armadas están pidiendo no es solo rendimiento, sino soberanía sobre el modelo, los datos y la infraestructura donde corre. En una crisis real, el acceso, la latencia y la continuidad operativa pueden pesar más que cualquier benchmark de laboratorio.

Proyecto Aria y la oportunidad para nuevas startups

Mientras la relación con Anthropic se deterioraba, el Ejército de Estados Unidos se preparaba para lanzar una nueva iniciativa. El Proyecto Aria, anunciado el jueves, busca ayudar al servicio a desarrollar y desplegar nuevas herramientas y modelos de IA para abordar problemas operativos reales. En otras palabras, soluciones construidas desde el inicio para ayudar a los soldados a cumplir tareas concretas.

Esa misma oportunidad está atrayendo a una nueva generación de empresas especializadas. Una de las más visibles es Smack Technologies, que anunció el lunes una ronda de financiación por USD $32 millones para construir lo que define como un “laboratorio de frontera para la seguridad nacional”.

Andrew Markoff, exoperador especial de marines y cofundador de Smack, sostiene que su propuesta parte de una premisa básica. La IA militar debe entrenarse con conjuntos de datos relevantes para combate y operaciones, no con el material generalista que alimenta a los grandes modelos comerciales.

Markoff resumió el problema con una frase provocadora: no existe un conjunto de entrenamiento para una Tercera Guerra Mundial. A su juicio, no es posible construir aprendizaje de refuerzo útil sin conocimiento profundo del dominio ni sin expertos humanos sólidos. También señaló que ese conocimiento no puede obtenerse solo de manuales doctrinales.

Como ejemplo, describió la redada en Venezuela como una muestra del tipo de operación que la IA podría ayudar a escalar en un conflicto contra un rival más sofisticado. Habló de cientos de objetivos, sensores asignados para entender lo que sucede, plataformas de ataque y escoltas coordinadas desde distintos puntos del mundo y una secuencia exacta de tareas donde una acción debe ocurrir segundos antes que otra.

Según Markoff, ese tipo de razonamiento operativo no es el terreno natural de modelos como Claude. Dijo que esas herramientas no pueden optimizar entre múltiples objetivos ni realizar con precisión cálculos de tiempo y espacio, razonamiento geoespacial basado en física, o decisiones sobre qué municiones deben estar en qué lugar y en qué momento, enlazadas con sensores específicos.

Contexto, despliegue en el borde y confianza operativa

Jason Rathje, exoficial de adquisiciones de la Fuerza Aérea y cofundador de la Oficina de Capital Estratégico del Departamento de Defensa, hoy al frente de la división del sector público en webAI, coincide con ese diagnóstico. A su juicio, los modelos de frontera fueron construidos para responder millones de preguntas diferentes para miles de millones de usuarios, mientras que el sector militar necesita sistemas afinados para planificación logística, mantenimiento, análisis de inteligencia y soporte de decisiones operativas.

Rathje subrayó también el problema de infraestructura. Explicó que muchos modelos punteros fueron diseñados como servicios centralizados para bases masivas de usuarios comerciales. Eso requiere chips avanzados, centros de datos de alta capacidad y enormes cantidades de energía. Ese enfoque funciona para consumo, pero no necesariamente para organizaciones de defensa que operan bajo restricciones distintas.

En esa línea, Smack desarrolla dos familias de productos. Una busca ofrecer una experiencia similar a la IA generativa conocida por el público, pero entrenada con inteligencia militar y experiencia operativa. La otra está dirigida al campo de batalla remoto, donde la conectividad puede ser denegada, interrumpida, intermitente o limitada.

Sherman Williams, veterano de la Marina y fundador de AIN Ventures, ha invertido en varias startups de uso dual y defensa. Reconoce que ninguna startup de IA vencerá a los grandes modelos de frontera en métricas tradicionales de razonamiento. Sin embargo, afirma que un modelo que sea 85% tan capaz, pero funcione en una red táctica degradada, puede superar a GPT-5 si este está en un centro de datos al que no se puede acceder.

Williams recordó además que incluso los centros de datos accesibles siguen siendo vulnerables. Mencionó como ejemplo el ataque de Irán a una instalación de AWS en Bahréin. Su conclusión es que el contexto importa más que los puntos de referencia, especialmente cuando la misión depende de resiliencia, proximidad y control.

Desde su visión, esta nueva generación de compañías no intenta derrotar directamente a OpenAI. Lo que busca es construir la capa de adaptación y despliegue que haga utilizables los modelos de código abierto en entornos clasificados, con ajustes seguros, versiones específicas para inteligencia, vigilancia y reconocimiento, y soluciones de mando y control con capacidad de operar en el borde.

Williams dijo que está observando señales fuertes de adopción por parte de clientes militares, en particular SOCOM e INDOPACOM, que han usado IA extensamente a nivel de cuarteles generales durante más de un año. También añadió que los compradores del Departamento de Defensa quieren confiar en quienes fabrican estas herramientas, y que esa confianza puede ser más fácil de construir cuando los fundadores conocen la realidad operativa militar.

El problema de las respuestas complacientes

Aun si una startup fue creada por veteranos y ajustada para defensa, no desaparece un problema más amplio de los grandes modelos de lenguaje. Estas herramientas tienden a responder con seguridad incluso cuando no deberían hacerlo, y en ocasiones adaptan sus respuestas para complacer al usuario en lugar de desafiar sus supuestos.

Pete Walker, comandante retirado de la Marina y director de innovación en IntelliGenesis, empresa enfocada en IA y ciberseguridad para defensa, advirtió que muchos modelos de frontera ofrecen respuestas que el usuario quiere escuchar. Explicó que una de las razones por las que son tan grandes es que fueron construidos para fomentar la conversación y mantener el interés del usuario.

Walker, quien tiene un doctorado en ciencia cognitiva, aseguró contar con investigaciones revisadas por pares que respaldan esta observación. Por eso, su empresa trabaja en un marco para modelos de lenguaje basado en pensamiento contrafactual, con el fin de presentar puntos de vista alternativos y poner a prueba las suposiciones del operador.

La idea, según lo describió, es que el modelo no solo acepte una lógica del tipo “si A, entonces B”, sino que pregunte qué pasa si no es A o si no es B, y qué implicaciones tendría eso. Para el entorno militar, donde las decisiones se toman bajo presión y con información incompleta, ese tipo de IA menos complaciente y más analítica podría ser tan valiosa como cualquier mejora en capacidad bruta.

En el fondo, la discusión no gira solo en torno a cuál laboratorio tiene el mejor modelo del mercado. El verdadero debate es si la IA que domina el sector comercial puede adaptarse a misiones de defensa donde importan la soberanía, la confiabilidad, el contexto operativo y la capacidad de seguir funcionando cuando la nube deja de estar disponible.


ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.

Suscríbete a nuestro boletín