Por Canuto  

Anthropic confirmó que sí informó a la administración de Donald Trump sobre Mythos, su nuevo modelo de IA no disponible al público por sus presuntas capacidades avanzadas en ciberseguridad. La declaración llega en medio de una disputa legal con el Departamento de Defensa y reabre el debate sobre cómo deben coordinarse las empresas de IA con el Estado cuando sus sistemas pueden impactar la seguridad nacional, la banca y el empleo.
***

  • Jack Clark dijo que Anthropic habló con el gobierno de EE. UU. sobre Mythos y hará lo mismo con futuros modelos.
  • La empresa mantiene ese canal abierto pese a su demanda contra el Departamento de Defensa por una disputa contractual y de acceso a sus sistemas.
  • Clark también abordó el efecto de la IA sobre el empleo y señaló debilidad potencial en la contratación de recién graduados en algunos sectores.

 


Anthropic confirmó que sí informó al gobierno de Donald Trump sobre Mythos, su nuevo modelo de inteligencia artificial, pese a que la empresa mantiene una disputa legal con el Departamento de Defensa de Estados Unidos. La revelación añade una nueva capa al debate sobre cómo deben relacionarse las compañías privadas de IA con el aparato estatal cuando desarrollan sistemas que podrían tener implicaciones directas para la seguridad nacional.

La confirmación vino de Jack Clark, cofundador de Anthropic y jefe de Beneficio Público de Anthropic PBC, durante una entrevista en la cumbre Semafor World Economy. Allí explicó por qué la empresa continúa dialogando con el gobierno federal, incluso mientras litiga contra una de sus agencias más relevantes en materia de defensa.

El punto central de la controversia es Mythos, un modelo anunciado la semana pasada que no será publicado para el público. Según se indicó, la decisión responde en gran medida a sus supuestas capacidades de ciberseguridad, descritas como suficientemente potentes y peligrosas como para justificar una retención de acceso.

Ese detalle convierte a Mythos en un caso especialmente sensible dentro del actual auge de la inteligencia artificial. A diferencia de otras herramientas comerciales o abiertas, aquí no se trata solo de rendimiento o competencia de mercado, sino del manejo de una tecnología que, según su propio desarrollador, podría tocar intereses estratégicos del Estado.

La relación con Washington pese a la demanda

Clark explicó que la posición de Anthropic es que el gobierno debe estar al tanto de estos avances. En su intervención sostuvo que las autoridades necesitan conocer desarrollos que estén revolucionando la economía, pero que también puedan tener efectos sobre la seguridad nacional y otros ámbitos relacionados.

“Nuestra postura es que el gobierno tiene que saber sobre estas cosas, y tenemos que encontrar nuevas formas para que el gobierno se asocie con un sector privado que está creando cosas que verdaderamente están revolucionando la economía, pero que van a tener aspectos que afectan a la seguridad nacional, a intereses relacionados y a otros”, dijo Clark.

Luego fue todavía más directo sobre Mythos y el futuro de la relación con Washington. “Así que absolutamente, hablamos con ellos sobre Mythos, y también hablaremos con ellos sobre los próximos modelos”, afirmó durante la entrevista.

La declaración resulta llamativa porque llega apenas semanas después de que Anthropic demandara al Departamento de Defensa. En marzo, la empresa presentó una acción legal contra esa agencia luego de que fuera catalogada como un riesgo para la cadena de suministro.

Según indicó TechCrunch, el conflicto con el Pentágono giró en torno a si las fuerzas armadas debían tener acceso sin restricciones a los sistemas de IA de Anthropic. Entre los posibles usos discutidos se mencionaron vigilancia masiva de estadounidenses y armas totalmente autónomas, dos líneas rojas especialmente sensibles dentro del debate ético sobre inteligencia artificial.

Finalmente, OpenAI terminó obteniendo el contrato en disputa. Aun así, Clark restó dramatismo al episodio y lo describió como una “disputa contractual limitada”, subrayando que Anthropic no quería que ese enfrentamiento eclipsara lo que considera un compromiso con la seguridad nacional.

Mythos, banca y señales de coordinación oficial

La confirmación pública de Clark se produjo después de reportes de la semana pasada que apuntaban a un interés activo de funcionarios de Trump en torno a Mythos. Esos informes sostenían que representantes de la administración estaban animando a grandes bancos a probar el nuevo modelo.

Entre las entidades mencionadas aparecieron JPMorgan Chase, Goldman Sachs, Citigroup, Bank of America y Morgan Stanley. Aunque no se ofrecieron detalles sobre la naturaleza exacta de esas pruebas, la lista sugiere que Mythos no solo interesa por sus posibles aplicaciones de seguridad, sino también por su potencial impacto en finanzas, gestión de riesgos y operaciones corporativas.

Ese punto importa porque el sistema financiero suele actuar como uno de los principales campos de adopción temprana para tecnologías avanzadas. Si un modelo como Mythos es percibido como demasiado riesgoso para el público general, pero aun así se evalúa en grandes bancos, el mensaje implícito es que el acceso podría limitarse a actores institucionales con marcos de control más estrictos.

También pone sobre la mesa una tensión que ya se observa en otros segmentos tecnológicos. Los mismos sistemas que prometen ganancias de productividad, automatización y análisis sofisticado pueden plantear riesgos operativos, regulatorios o geopolíticos, especialmente si sus capacidades en ciberseguridad resultan difíciles de contener.

El debate sobre empleo y educación superior

Durante la misma entrevista, Clark abordó otra de las grandes preocupaciones en torno a la IA: el empleo. El comentario tiene peso adicional porque el propio CEO de Anthropic, Dario Amodei, había advertido anteriormente que los avances de esta tecnología podrían llevar el desempleo a niveles comparables con los de la era de la Gran Depresión.

Clark ofreció una posición algo distinta. Según explicó, Amodei parte de la idea de que la inteligencia artificial se volverá mucho más poderosa de lo que la gente espera y lo hará en un plazo muy corto, y esa premisa es la base de sus estimaciones más severas.

Sin embargo, Clark señaló que, desde el trabajo que realiza con un equipo de economistas dentro de Anthropic, la empresa todavía solo observa “cierta debilidad potencial en el empleo de recién graduados” en sectores seleccionados. Esa precisión sugiere que, al menos por ahora, la disrupción no estaría golpeando de forma uniforme a todo el mercado laboral.

Aun así, dejó claro que Anthropic se está preparando para escenarios más drásticos si la situación cambia. Esa cautela coincide con una visión cada vez más extendida en la industria: incluso cuando los efectos masivos todavía no son visibles en los datos agregados, muchas empresas tecnológicas creen que la transformación podría acelerarse rápidamente.

La educación superior también entró en la conversación. Cuando se le pidió orientar a los estudiantes sobre qué carreras seguir o evitar hoy a la luz del avance de la IA, Clark evitó recomendar disciplinas concretas y prefirió una respuesta más general.

En su opinión, las trayectorias académicas más valiosas son aquellas que implican síntesis entre una amplia variedad de temas y pensamiento analítico sobre ellos. La razón, explicó, es que la IA permitirá acceder a una cantidad prácticamente arbitraria de expertos en distintas materias y dominios.

“Pero lo realmente importante es saber cuáles son las preguntas correctas que hay que hacer y tener intuiciones sobre qué sería interesante si hicieras colisionar diferentes ideas provenientes de muchas disciplinas distintas”, dijo Clark. Su argumento apunta a que el valor humano no desaparecería, pero sí se desplazaría hacia capacidades de criterio, conexión conceptual y formulación de problemas.

Un caso que refleja una tensión más amplia en la IA

El episodio de Mythos refleja una contradicción que ya define buena parte de la carrera global por la inteligencia artificial. Las empresas privadas compiten por desarrollar modelos cada vez más poderosos, pero al mismo tiempo necesitan decidir cuánto compartir con gobiernos, reguladores, clientes corporativos y el público.

En el caso de Anthropic, esa tensión es aún más visible porque la empresa intenta sostener dos posturas a la vez. Por un lado, busca poner límites al uso militar irrestricto de sus sistemas. Por otro, insiste en que las autoridades deben conocer con anticipación los avances que puedan afectar intereses estratégicos de Estados Unidos.

Mythos se convierte así en una señal de hacia dónde podría dirigirse el sector. En lugar de una apertura homogénea, algunos modelos de frontera podrían quedar reservados para circuitos cerrados, con acceso condicionado y diálogo directo con grandes instituciones estatales y financieras.

Ese modelo de gobernanza no elimina las controversias. Más bien las vuelve más complejas, porque combina seguridad, competencia comercial, defensa, banca, empleo y política tecnológica en una misma conversación. La declaración de Clark deja claro que Anthropic no piensa abandonar ese equilibrio inestable, incluso si eso significa litigar con una agencia mientras colabora con otras partes del mismo gobierno.

Por ahora, lo confirmado es concreto: Anthropic sí informó a la administración Trump sobre Mythos, considera que el gobierno debe conocer este tipo de desarrollos y prevé hacer lo mismo con futuros modelos. En un momento en que la IA avanza más rápido que las reglas, esa relación entre laboratorios privados y poder público será observada cada vez con más atención.


Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público.

Este artículo fue escrito por un redactor de contenido de IA y revisado por un editor humano para garantizar calidad y precisión.


ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.

Suscríbete a nuestro boletín