Por Canuto  

La administración de Trump estaría evaluando una vía para dejar atrás su choque con Anthropic y permitir el uso gubernamental de Mythos, un modelo de IA que ha despertado interés por su potencial en ciber defensa, pero también preocupación por sus riesgos.

***

  • La Casa Blanca estaría preparando directrices para eludir la designación de Anthropic como riesgo de cadena de suministro.
  • El borrador abriría la puerta al uso de nuevos modelos de IA, incluido Mythos, dentro de agencias federales.
  • Mientras parte del Pentágono mantiene su rechazo, otros actores consideran que el conflicto con Anthropic ha sido contraproducente.

 


La Casa Blanca de Estados Unidos está elaborando directrices que podrían permitir a agencias federales dejar de lado la designación de Anthropic como riesgo de cadena de suministro e incorporar nuevos modelos de inteligencia artificial (IA), incluido Mythos.

La medida, reportada inicialmente por Axios y recogida por medios como Reuters y Benzinga, apunta a una posible descompresión en la disputa abierta entre la administración de Donald Trump y la startup creadora de Claude.

El posible cambio de postura cobra relevancia en un momento en que Washington compite por acelerar la adopción de herramientas avanzadas de IA en seguridad nacional, defensa y ciberdefensa. En ese contexto, la discusión ya no gira solo en torno al acceso a modelos potentes, sino también al equilibrio entre capacidad tecnológica, riesgos operativos y control político sobre proveedores estratégicos.

Una vía ejecutiva para sortear la restricción

De acuerdo con el reporte citado, la Casa Blanca trabaja en un borrador de acción ejecutiva que podría ofrecer una salida para mitigar la disputa con Anthropic. Esa guía abriría una ruta para revertir o neutralizar la directiva de la Oficina de Administración y Presupuesto contra el uso de Anthropic en operaciones gubernamentales, según la información publicada.

Reuters indicó el 28 de abril que la acción preliminar bajo consideración podría dar a la administración Trump una forma de reducir la escalada del conflicto. La agencia también señaló que no pudo verificar de inmediato el informe de manera independiente. Ni Anthropic ni la Casa Blanca ofrecieron comentarios inmediatos a las solicitudes de prensa.

Según Benzinga, esta semana la Casa Blanca sostendría reuniones con empresas de distintos sectores para discutir una posible acción ejecutiva y mejores prácticas para desplegar Mythos. Ese detalle sugiere que la discusión no se limita a un caso corporativo puntual, sino que podría derivar en un marco más amplio para incorporar modelos de IA restringidos en entornos estatales sensibles.

En términos prácticos, una modificación de esta naturaleza tendría implicaciones importantes para adquisiciones públicas, contratación tecnológica y uso de IA en ámbitos clasificados. También enviaría una señal política sobre cómo la administración Trump pretende gestionar disputas con laboratorios privados que mantienen límites estrictos sobre ciertos usos de sus sistemas.

Cómo comenzó el choque con Anthropic

El trasfondo del conflicto se remonta a inicios de año, cuando Anthropic enfrentó consecuencias con el Pentágono después de negarse a eliminar salvaguardas que impedían el uso de su IA para armas autónomas o vigilancia doméstica. Esa negativa llevó al Departamento de Defensa a designar a la empresa como un riesgo de cadena de suministro.

La decisión fue significativa porque la etiqueta de riesgo puede bloquear o restringir el acceso de un proveedor a contratos, despliegues y sistemas críticos del gobierno. En un entorno donde la IA se está convirtiendo en infraestructura estratégica, una marca de ese tipo puede pesar tanto como una sanción operativa de facto.

El caso también expone una tensión cada vez más frecuente en la industria. Por un lado, los desarrolladores de modelos buscan imponer límites éticos o de seguridad. Por otro, las agencias estatales, en especial las vinculadas a defensa, suelen presionar por mayor flexibilidad operativa cuando detectan valor militar o de inteligencia en una herramienta.

Hasta ahora, parte del Pentágono se ha mantenido firme en su postura. Sin embargo, múltiples fuentes citadas por Axios sostienen que otros actores dentro del aparato gubernamental creen que la disputa ha sido contraproducente y están listos para buscar una salida. Esa división interna ayuda a explicar por qué la Casa Blanca estaría evaluando una fórmula de compromiso.

Mythos, el modelo que reavivó el interés oficial

La discusión tomó una nueva dimensión pocas semanas después de que Anthropic presentara Mythos, descrito como su sistema de IA más avanzado hasta la fecha. Según Reuters, expertos han dicho que la herramienta tendría una capacidad potencialmente sin precedentes para identificar vulnerabilidades de ciberseguridad y proponer formas de explotarlas.

Ese perfil técnico convierte a Mythos en un activo especialmente sensible. Una IA capaz de detectar debilidades en sistemas informáticos puede ser una herramienta valiosa para defensa cibernética, pruebas de penetración y análisis de seguridad. Pero el mismo potencial también eleva las alarmas sobre abuso, escalamiento ofensivo y proliferación de capacidades peligrosas.

Benzinga describió a Mythos como un modelo de IA restringido desarrollado para uso gubernamental y de defensa sensible, presentado a principios de este mes. Esa caracterización refuerza la idea de que Anthropic no estaba ofreciendo un producto generalista, sino una herramienta pensada para entornos de alta criticidad, con acceso limitado y objetivos específicos.

El interés oficial por Mythos no parece meramente teórico. A comienzos de este mes, se informó que la Agencia de Seguridad Nacional, la NSA, estaba utilizando el modelo restringido de Anthropic para ciberdefensa a pesar de la prohibición del Pentágono sobre la empresa. Ese dato ilustra la complejidad del panorama: mientras una parte del Estado veta, otra parte experimenta con la tecnología.

Señales de deshielo desde la Casa Blanca

En los últimos días surgieron varias señales de que la relación podría estar entrando en una fase menos confrontativa. La semana pasada, Donald Trump afirmó que Anthropic estaba “tomando forma” ante los ojos de su administración, después de que el CEO Dario Amodei se reuniera con funcionarios de la Casa Blanca en un intento por reparar la relación deteriorada.

Cuando se le preguntó en “Squawk Box” de CNBC si veía posible un acuerdo con el Pentágono, Trump respondió: “Es posible. Queremos a la gente más inteligente”. La frase condensa una visión pragmática que prioriza el acceso al talento y a herramientas de punta, incluso en medio de choques regulatorios o institucionales previos.

Según Benzinga, a principios de este mes la jefa de gabinete de la Casa Blanca, Susie Wiles, y el secretario del Tesoro, Scott Bessent, mantuvieron una reunión con Amodei. Esa reunión fue descrita como una “reunión introductoria productiva” sobre posibles colaboraciones entre el gobierno y la empresa, lo que apunta a un canal de diálogo ya reabierto.

No obstante, el deshielo no garantiza una resolución ordenada. Axios advirtió, según los reportes citados, que ambas partes podrían terminar nuevamente en negociaciones conflictivas. Eso significa que la disputa aún no está cerrada y que cualquier cambio de guía podría abrir nuevos debates sobre límites, supervisión y acceso a capacidades avanzadas.

Un debate más amplio sobre proveedores de IA en defensa

El caso Anthropic también se inserta en una conversación más amplia dentro del ecosistema de defensa estadounidense. Benzinga recordó que el jefe de IA del Pentágono confirmó el papel creciente del modelo Gemini de Google, de Alphabet, en trabajo de defensa clasificado, en medio de la necesidad de diversificar la dependencia de proveedores.

Ese movimiento sugiere que el gobierno busca evitar depender de un solo laboratorio para funciones sensibles. A la vez, muestra que las disputas con un proveedor pueden acelerar la entrada de rivales. En otras palabras, la controversia con Anthropic no ocurre en el vacío, sino dentro de una carrera por definir qué empresas proveerán la infraestructura cognitiva del Estado.

Para los mercados tecnológicos, este tipo de decisiones puede influir en valoraciones, contratos y posicionamiento competitivo. Para los defensores de una IA más segura, en cambio, el punto crítico es otro: si las salvaguardas impuestas por un desarrollador pueden terminar debilitadas por una decisión política cuando el Estado considera que necesita la herramienta.

Por ahora, el panorama sigue abierto. La Casa Blanca estudia un mecanismo para sortear la designación de riesgo, el Pentágono sigue dividido y Mythos continúa en el centro de una discusión que mezcla ciberseguridad, poder político y control sobre la próxima generación de sistemas de inteligencia artificial.


Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público

Este artículo fue escrito por un redactor de contenido de IA

 


ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.

Suscríbete a nuestro boletín