Por Canuto  

La visita de Dario Amodei al Ala Oeste llega en un momento decisivo para Anthropic. La empresa de IA enfrenta una disputa abierta con el Pentágono por negarse a permitir usos sin restricciones de sus modelos, mientras Washington evalúa el potencial y los riesgos de Mythos, su nuevo sistema centrado en ciberseguridad.

***

  • El CEO de Anthropic, Dario Amodei, tiene prevista una reunión con Susie Wiles, jefa de gabinete de la Casa Blanca.
  • La cita ocurre mientras sigue la demanda de la empresa contra el Pentágono tras su inclusión en una lista negra.
  • Mythos, el nuevo modelo de IA de Anthropic, ya está siendo probado por agencias de EE. UU. por sus capacidades en ciberseguridad.

 


El CEO de Anthropic, Dario Amodei, tiene previsto reunirse este viernes con Susie Wiles, jefa de gabinete de la Casa Blanca, en una cita que podría influir en el pulso que mantiene la empresa con el Pentágono por el uso de sistemas avanzados de inteligencia artificial.

El encuentro, reportado por Axios, llega en un momento especialmente delicado. La administración Trump analiza el valor estratégico de Claude y de Mythos, un nuevo modelo de frontera desarrollado por Anthropic con foco en ciberseguridad y con capacidades que, según la información disponible, también podrían emplearse para vulnerar defensas informáticas.

Para entender la relevancia del caso conviene tener presente el contexto. Anthropic es una de las compañías de IA más observadas de Estados Unidos, y buena parte de su identidad corporativa se ha construido alrededor de límites éticos sobre cómo deben desplegarse sus modelos, especialmente en ámbitos de vigilancia y defensa.

La tensión con el Pentágono surge precisamente allí. La empresa se negó a autorizar un uso irrestricto de sus herramientas y, tras esa negativa, fue incluida en una lista negra por el Departamento de Defensa. Ese paso abrió una confrontación que ahora combina tribunales, cabildeo y reuniones de alto nivel dentro del gobierno federal.

Mythos y el interés de Washington

Mythos fue presentado a comienzos de este mes como un sistema de IA de frontera orientado a tareas de ciberseguridad. De acuerdo con la cobertura original, el modelo puede escanear software, detectar fallas graves de seguridad e incluso determinar cómo podrían explotarse esas vulnerabilidades, a menudo con intervención humana mínima.

Ese perfil explica por qué el gobierno estadounidense lo sigue con tanta atención. Un sistema capaz de identificar fallas críticas con ese grado de autonomía no solo resulta útil para la defensa digital, sino que también plantea riesgos si se emplea para operaciones ofensivas o si sus capacidades superan los controles institucionales existentes.

La administración Trump estaría evaluando de forma particular la importancia del modelo Claude de Anthropic junto con Mythos. En este caso, el centro de gravedad parece estar en la capacidad del nuevo sistema para encontrar vulnerabilidades de día cero en sistemas operativos y navegadores ampliamente utilizados.

Según la información citada por la fuente, varias agencias de Estados Unidos ya están probando Mythos. Entre ellas figuran elementos de la comunidad de inteligencia y la Agencia de Seguridad de Infraestructura y Ciberseguridad, conocida como CISA. También habría interés adicional desde el Departamento del Tesoro.

Ese interés no es menor. La posibilidad de automatizar el hallazgo de vulnerabilidades de alto impacto cambia la ecuación de riesgo para gobiernos, bancos, mercados y empresas tecnológicas. En un momento en que la IA empieza a mezclarse con seguridad nacional, el caso de Anthropic se vuelve más amplio que una disputa contractual.

La demanda contra el Pentágono y los límites éticos

Anthropic llevó el conflicto a los tribunales después de haber sido vetada por negarse a permitir que su IA se utilizara sin restricciones. La empresa había fijado dos líneas rojas desde antes del choque con el Pentágono: sus modelos no serían usados para vigilancia doméstica masiva y tampoco impulsarían sistemas de armas completamente autónomos.

Esas condiciones forman parte central de la narrativa fundacional de la compañía. Anthropic nació en 2021, cuando un grupo de investigadores abandonó OpenAI al considerar que el desarrollo de la inteligencia artificial necesitaba límites éticos más firmes y mecanismos de control más sólidos.

El litigio, sin embargo, no ha favorecido plenamente a la empresa hasta ahora. Un tribunal federal de apelaciones rechazó su intento inicial de bloquear la lista negra, aunque la batalla legal sigue abierta. Eso significa que la empresa aún busca revertir o limitar las consecuencias del veto mientras avanza el proceso judicial.

En paralelo, Anthropic optó por una estrategia política. Contrató a Ballard Partners, una firma de cabildeo con vínculos profundos con el entorno cercano de Trump. Ese movimiento sugiere que la compañía entiende que el desenlace del conflicto no dependerá solo de argumentos legales, sino también de decisiones políticas sobre seguridad, innovación y poder tecnológico.

La reunión entre Amodei y Wiles encaja dentro de esa ofensiva más amplia. No se trata únicamente de presentar una posición corporativa, sino de intentar influir en la forma en que la Casa Blanca vea el equilibrio entre el valor estratégico de una IA avanzada y los límites que su creador quiere mantener.

Un debate que va más allá de Anthropic

El caso pone sobre la mesa un problema mayor para toda la industria de IA. A medida que los modelos se vuelven más capaces en ciberseguridad, biología, automatización o análisis estratégico, crece la presión de gobiernos y fuerzas armadas para acceder a esas herramientas bajo condiciones más flexibles.

Frente a eso, las empresas enfrentan un dilema complejo. Si aceptan usos irrestrictos, pueden quedar asociadas a prácticas de vigilancia o armamento autónomo que choquen con sus principios declarados. Si se resisten, arriesgan contratos, vetos regulatorios o confrontaciones directas con agencias de seguridad nacional.

En el caso de Mythos, el debate se intensifica porque sus capacidades parecen situarse en un umbral particularmente sensible. Encontrar vulnerabilidades de día cero en productos de uso masivo no solo es valioso para blindar infraestructuras. También puede convertirse en una ventaja ofensiva de enorme peso para cualquier actor estatal.

La fuente indica que el secretario del Tesoro llegó a describir a Mythos como un “cambio escalonado en capacidades” durante un evento del Wall Street Journal. Ese comentario habría provocado una reunión de emergencia con CEOs de Wall Street y una sesión informativa sobre riesgos cibernéticos vinculados con IA en la que participaron el vicepresidente Vance y Elon Musk.

Ese dato refleja que la conversación ya se extendió más allá del Pentágono. Mercados financieros, organismos de seguridad y líderes políticos parecen estar calibrando el impacto de herramientas capaces de acelerar tanto la defensa como la explotación de debilidades digitales. En ese entorno, cada decisión sobre acceso, restricciones y gobernanza adquiere peso estratégico.

La reunión de este viernes representa además el segundo encuentro de alto perfil de Amodei este año con un funcionario de primer nivel de la administración Trump. Eso confirma que Anthropic se ha convertido en un actor central dentro del debate estadounidense sobre cómo regular y aprovechar la IA más avanzada sin desbordar límites considerados básicos por sus desarrolladores.

Por ahora, no hay señales públicas de una resolución inmediata. Pero el hecho de que la discusión haya llegado al Ala Oeste muestra que la disputa ya no se reduce a una empresa y un contrato. Se ha transformado en una prueba de hasta dónde puede llegar el gobierno de Estados Unidos al exigir acceso a modelos de IA, y hasta dónde están dispuestas a resistir las compañías que dicen haber nacido para imponer límites.

 

 


ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.

Suscríbete a nuestro boletín