Por Canuto  

El CEO de Anthropic, Dario Amodei, se reunirá con la Casa Blanca para discutir Mythos, el nuevo modelo de IA de la empresa orientado a ciberseguridad, en una señal de distensión tras semanas de choques con la administración Trump, demandas judiciales y un veto federal aún disputado en tribunales.
***

  • Dario Amodei se reunirá con Susie Wiles para abordar las capacidades de Mythos, el nuevo modelo de IA de Anthropic.
  • El encuentro ocurre menos de dos meses después de que Trump incluyera a Anthropic en una lista negra por presuntos riesgos de seguridad nacional.
  • Mythos se está desplegando solo para un grupo selecto de empresas dentro de Project Glasswing y no será lanzado públicamente.

 


El director ejecutivo de Anthropic, Dario Amodei, sostendrá este viernes una reunión con Susie Wiles, jefa de gabinete de la Casa Blanca, para hablar sobre Mythos, el nuevo modelo de inteligencia artificial de la compañía. El encuentro representa una señal relevante de acercamiento entre la empresa y la administración del presidente Donald Trump, luego de varias semanas marcadas por tensiones políticas, disputas regulatorias y litigios activos.

Mythos fue anunciado a comienzos de este mes y, según Anthropic, destaca por su capacidad para identificar debilidades y fallas de seguridad dentro del software. La empresa ha indicado que mantiene discusiones continuas con funcionarios del gobierno de Estados Unidos sobre el alcance de estas capacidades, en un momento en que la ciberseguridad basada en IA se ha vuelto un eje central para la política pública y la seguridad nacional.

La cita en la Casa Blanca también sugiere un cambio de tono. Apenas semanas atrás, Trump había colocado a Anthropic en una lista negra y afirmó que la empresa representaba un riesgo para la seguridad nacional. Incluso aseguró que su administración “no volvería a hacer negocios con ellos”, una postura que elevó la presión sobre una de las compañías más importantes del sector de inteligencia artificial avanzada.

De acuerdo con CNBC, el encuentro entre Amodei y Wiles marca el más reciente indicio de deshielo entre ambas partes. Anthropic, por su lado, declinó hacer comentarios públicos sobre la reunión. Axios fue el primer medio en informar sobre la cita.

Mythos, el modelo que alteró la conversación en Washington

El interés del gobierno estadounidense en Mythos está ligado a su orientación concreta hacia la ciberseguridad. Anthropic sostiene que el sistema sobresale en la detección de vulnerabilidades y otros fallos dentro de programas informáticos, una función especialmente sensible para agencias públicas, contratistas de defensa, entidades financieras y operadores de infraestructura crítica.

La empresa no planea lanzar el modelo al público general. En cambio, lo está desplegando para un grupo selecto de compañías dentro de Project Glasswing, una nueva iniciativa de ciberseguridad. Esa decisión sugiere un enfoque controlado y restringido, posiblemente para manejar riesgos operativos, uso indebido y exigencias de cumplimiento en un entorno regulatorio cada vez más exigente.

El hecho de que Mythos no sea una herramienta abierta también ayuda a entender por qué el modelo ha captado atención al más alto nivel político. En lugar de una IA de consumo masivo, se trata de un producto con posibles implicaciones en defensa, protección digital y resiliencia institucional. En ese contexto, la conversación ya no gira solo en torno a innovación tecnológica, sino también a gobernanza, acceso y límites de uso.

En los últimos días, la influencia de Mythos pareció expandirse más allá de la Casa Blanca. La semana pasada, el secretario del Tesoro, Scott Bessent, y el presidente de la Reserva Federal, Jerome Powell, se reunieron con líderes de los principales bancos de Estados Unidos para discutir el modelo. Una semana antes, el vicepresidente JD Vance y el propio Bessent se habían reunido con Amodei, Sam Altman de OpenAI y otros altos ejecutivos tecnológicos para hablar sobre ciberseguridad e inteligencia artificial.

Del enfrentamiento legal al acercamiento político

La reunión del viernes contrasta con la situación de hace apenas unas semanas. Anthropic demandó al gobierno de Estados Unidos para intentar revertir su inclusión en la lista negra, con procesos abiertos en tribunales de San Francisco y Washington, D.C. Esos casos siguen en curso, lo que significa que el acercamiento político no elimina, al menos por ahora, el frente judicial entre la empresa y la administración.

El conflicto escaló tras varias semanas de negociaciones tensas entre Anthropic y el Departamento de Defensa. Ambas partes chocaron sobre las condiciones bajo las cuales la agencia podría usar los modelos de la compañía. El Pentágono quería acceso sin restricciones a los modelos de Anthropic para todos los fines legales, mientras la empresa buscaba garantías específicas para evitar ciertos usos de alto riesgo.

En concreto, Anthropic quería asegurarse de que su tecnología no fuera utilizada para armas totalmente autónomas ni para vigilancia masiva dentro del país. Esa diferencia de criterios terminó por frenar las conversaciones. A comienzos de marzo, el Departamento de Defensa declaró a Anthropic como un riesgo para la cadena de suministro, una etiqueta que implica que el uso de su tecnología supuestamente amenaza la seguridad nacional de Estados Unidos.

La designación tuvo efectos inmediatos. Los contratistas de defensa pasaron a estar obligados a certificar que no usan los modelos Claude de Anthropic en trabajos vinculados con el ejército. Más tarde, Trump ordenó a todas las agencias federales que “CESARAN INMEDIATAMENTE todo uso de la tecnología de Anthropic” mediante una publicación en Truth Social. Sin embargo, esa directiva fue bloqueada temporalmente por un juez federal en San Francisco.

Una relación aún frágil con implicaciones para la industria de IA

Aunque el tono parece estar cambiando, la relación sigue siendo frágil. El Departamento de Defensa no ha comentado sobre Mythos, pero continuó usando los modelos Claude de Anthropic en la guerra con Irán, según la información disponible. Ese detalle deja ver una contradicción importante entre la presión política formal y la dependencia operativa de herramientas de IA avanzadas en contextos estratégicos.

Para la industria tecnológica, el episodio muestra hasta qué punto las empresas de IA ya no pueden separarse de la política exterior, la seguridad nacional y el aparato regulatorio. Lo que antes podía leerse como una disputa comercial o contractual hoy se interpreta dentro de un marco más amplio, donde el acceso a modelos de frontera puede definir relaciones entre el Estado, los contratistas y las grandes tecnológicas.

También hay un ángulo relevante en materia de influencia y cabildeo. Susie Wiles trabajó anteriormente en Ballard Partners, una firma con fuertes vínculos con la administración Trump. Según divulgaciones federales, Anthropic contrató a Ballard después de que el Pentágono designara a la compañía como un riesgo para la cadena de suministro. Ese movimiento sugiere que la firma buscó recomponer puentes políticos de forma activa tras el deterioro de su relación con Washington.

La reunión entre Amodei y Wiles no resuelve por sí sola el conflicto entre Anthropic y el gobierno estadounidense. Sin embargo, sí apunta a una recalibración del vínculo, impulsada por el potencial de Mythos y por la creciente necesidad del sector público de entender, contener y posiblemente aprovechar herramientas de IA especializadas en ciberseguridad. Para una industria acostumbrada a moverse entre la promesa de innovación y el temor regulatorio, el caso Anthropic ofrece un ejemplo claro de cómo el poder técnico puede alterar, en muy poco tiempo, el clima político alrededor de una empresa.


Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público.

Este artículo fue escrito por un redactor de contenido de IA y revisado por un editor humano para garantizar calidad y precisión.


ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.

Suscríbete a nuestro boletín