Por Canuto  

La decisión de Anthropic de restringir el acceso a Mythos, un modelo de IA capaz de detectar y explotar vulnerabilidades informáticas a un nivel superior al de casi todos los humanos, dejó a buena parte de Europa sin capacidad real de evaluación. El episodio expone la limitada influencia regulatoria de la UE frente a las grandes firmas de IA de Estados Unidos y reabre el debate sobre quién debe supervisar tecnologías con impacto potencial en la seguridad nacional.

***

  • Anthropic concedió acceso prioritario a 12 empresas tecnológicas de Estados Unidos, entre ellas Apple, Microsoft y Amazon.
  • De ocho agencias nacionales europeas consultadas, solo la alemana confirmó conversaciones con la empresa, aunque aún no ha probado el modelo.
  • Expertos y exfuncionarios advierten que no existe un mecanismo global sólido para supervisar modelos de IA con riesgos cibernéticos avanzados.

 


La decisión de Anthropic de limitar el lanzamiento de Mythos, su nuevo modelo de inteligencia artificial (IA) orientado a la detección y explotación de vulnerabilidades tecnológicas, ha dejado a los reguladores europeos en una posición incómoda.

Mientras la empresa estadounidense distribuyó acceso a un grupo reducido de socios de confianza, en el continente persisten dudas sobre el alcance real del sistema, su potencial ofensivo y la capacidad institucional de la Unión Europea para supervisar herramientas de frontera desarrolladas fuera de su jurisdicción directa.

Según reportó POLITICO, Anthropic anunció la semana pasada que restringiría el despliegue de Mythos a decenas de socios tecnológicos para que estos pudieran corregir fallos de seguridad. La empresa justificó la medida señalando que el modelo ya supera a la mayoría de los humanos en tareas de detección y explotación de vulnerabilidades, una capacidad que lo convierte al mismo tiempo en un instrumento defensivo valioso y en una posible herramienta peligrosa si cae en manos maliciosas.

El anuncio generó preocupación inmediata en los sectores de inteligencia artificial y ciberseguridad. La razón es simple: cuanto más capaz sea un sistema para encontrar puntos débiles en software e infraestructura digital, mayor es también el riesgo de que pueda facilitar brechas a gran escala si no existe una supervisión robusta, independiente y coordinada entre gobiernos.

Anthropic seleccionó a 12 empresas tecnológicas, todas con sede en Estados Unidos, como parte de su círculo más cercano de acceso. Entre ellas figuran Apple, Microsoft y Amazon. La compañía dijo además que había otorgado acceso a otras 40 organizaciones, aunque no reveló sus nombres, y añadió que mantiene conversaciones en curso con funcionarios del gobierno de Estados Unidos sobre Mythos.

Europa, con acceso fragmentario y escasa visibilidad

La asimetría en el acceso dejó mal parada a Europa. POLITICO habló con funcionarios de ocho agencias nacionales europeas de ciberseguridad y solo la agencia alemana confirmó haber mantenido conversaciones con Anthropic sobre el modelo. Incluso en ese caso, el organismo indicó que todavía no había podido probar directamente la herramienta.

Varias instituciones gubernamentales europeas sugirieron que solo han recibido información parcial o acceso fragmentario. Esa situación contrasta con lo ocurrido en Reino Unido, donde el ministro de IA, Kanishka Narayan, confirmó el viernes que el Instituto de Seguridad de la IA del país probó recientemente Mythos y que ya había tomado medidas basadas en sus hallazgos. El instituto publicó su evaluación el lunes.

Para muchos observadores, esta diferencia no es menor. Refleja cómo el acceso temprano a modelos avanzados puede traducirse en ventajas regulatorias, técnicas y estratégicas. También revela que la capacidad de supervisar la IA de frontera depende hoy menos de marcos multilaterales formales y más de la disposición unilateral de las empresas desarrolladoras.

Daniel Privitera, fundador de la organización berlinesa sin fines de lucro KIRA, afirmó que Mythos ofrece un anticipo de lo crucial que será el acceso a capacidades de IA de frontera en los próximos años. A su juicio, Europa no tiene actualmente un plan claro para asegurar ese acceso, un vacío que podría debilitar su capacidad de respuesta frente a riesgos emergentes.

La presidenta de la Oficina Federal de Seguridad de la Información de Alemania, Claudia Plattner, advirtió que una cuestión apremiante es si herramientas de un poder tan extraordinario como Mythos terminarán en el mercado abierto. En su declaración, señaló que esa posibilidad tendría implicaciones profundas para la seguridad y la soberanía nacional y europea.

Plattner explicó que la agencia alemana BSI se encuentra en diálogo activo con Anthropic. Aunque el organismo aún no ha probado de manera directa el modelo, sostuvo que las conversaciones con sus desarrolladores le han permitido obtener una visión significativa sobre su funcionamiento. Un portavoz añadió que el contacto entre ambas partes comenzó semanas antes del anuncio público.

En Países Bajos, el portavoz de la agencia nacional de ciberseguridad, Job Holzhauer, dijo que el impacto real de las vulnerabilidades detectadas por Mythos es difícil de verificar sin detalles técnicos. Esa observación resume uno de los principales problemas del caso: los gobiernos están siendo llamados a evaluar un riesgo cuya magnitud no pueden contrastar por sí mismos.

Supervisión privada de una tecnología con impacto público

El caso ha reactivado una discusión de fondo sobre la gobernanza de la inteligencia artificial avanzada. Al presentar Mythos, Anthropic sostuvo que los modelos de IA ya han alcanzado un punto en el que pueden superar a todos salvo a los humanos más capacitados en tareas de descubrimiento y explotación de fallos cibernéticos. Si ese umbral es correcto, el debate deja de ser meramente técnico y pasa a involucrar seguridad pública, soberanía digital y control institucional.

Yoshua Bengio, profesor de la Université de Montréal y uno de los tres padrinos de la IA, calificó como profundamente preocupante que sean las empresas tecnológicas, y no los reguladores, quienes decidan cómo gestionar estos riesgos. En sus declaraciones, remarcó que es esencial establecer mecanismos que permitan a gobiernos o a terceros realizar controles sobre esta clase de tecnología para proteger al público.

La exdiputada del Parlamento Europeo Marietje Schaake, quien también asesoró a la Comisión Europea y promovió un código de buenas prácticas para desarrolladores de modelos avanzados, señaló que resulta inquietante que modelos con un impacto tan amplio estén gobernados por una empresa privada. A su entender, este es un momento adecuado para que el mundo acuerde cómo compartir información corporativa sensible bajo esquemas de supervisión confiables.

Laura Caroli, investigadora independiente en IA y asesora clave durante la redacción de la Ley de IA de la Unión Europea de 2023, sostuvo que la UE quedó relegada porque el modelo no se está lanzando al mercado. Si lo hiciera, Anthropic estaría sujeta a normas y compromisos vinculantes bajo el derecho europeo. Aun así, Caroli planteó que la UE podría conservar alguna vía de supervisión mediante la red de institutos de seguridad de la IA, de la que forma parte la Oficina de IA de la Comisión.

Su advertencia fue aún más directa al señalar que, en este tipo de escenarios, los funcionarios europeos quedan a merced de Anthropic y de otras grandes empresas tecnológicas. Luego planteó una pregunta incómoda: qué ocurriría si en vez de Anthropic se tratara de DeepSeek, una firma de China. La comparación apunta a una preocupación geopolítica más amplia sobre dependencia tecnológica y acceso desigual a sistemas críticos.

La respuesta europea y el vacío global

La Agencia de la Unión Europea para la Ciberseguridad, ENISA, evitó comentar si ha estado en contacto con Anthropic respecto de Mythos. Por su parte, la Oficina de IA de la Comisión Europea mantiene un diálogo con la empresa en el marco del código de buenas prácticas que busca ayudar a los desarrolladores a cumplir con la Ley de IA del bloque. Sin embargo, los portavoces comunitarios no aclararon si el nuevo modelo forma parte de esas conversaciones ni si la oficina obtuvo acceso directo.

Thomas Regnier, portavoz digital de la Comisión Europea, declaró que el Ejecutivo se encuentra evaluando las posibles implicaciones del caso en relación con la legislación de la UE. También afirmó que Bruselas sigue de cerca las implicaciones de seguridad de esta tecnología en términos generales.

Regnier recordó que, bajo la Ley de IA, proveedores como Anthropic deben abordar los riesgos cibernéticos derivados de sus modelos. Añadió que la Ley de Resiliencia Cibernética del bloque impone requisitos obligatorios de ciberseguridad para todos los productos con elementos digitales comercializados en el mercado europeo. Aun así, esas herramientas legales parecen insuficientes cuando la tecnología crítica permanece fuera del mercado abierto y bajo control de un actor privado extranjero.

El caso de Mythos también deja en evidencia los límites de los esfuerzos internacionales para construir reglas comunes en seguridad de IA. En los últimos años se han impulsado iniciativas como el Proceso de Hiroshima del G7, el Diálogo Global de las Naciones Unidas sobre Gobernanza de la IA y una red de Institutos de Seguridad y Protección de la IA. Sin embargo, esos procesos no han logrado el respaldo político necesario para producir resultados reales y vinculantes.

Además, la agenda de seguridad en IA ha perdido fuerza a medida que los gobiernos se concentran en ganar la carrera global por el liderazgo tecnológico. El resultado, de acuerdo con la información publicada, es que hoy no existe un mecanismo global efectivo para examinar y vigilar lo que Anthropic y otras empresas similares hacen con tecnologías de alto riesgo.

Para la Europa continental, el episodio daña además la imagen de la UE como superreguladora tecnológica. El bloque ha construido parte de su identidad global alrededor de su capacidad para fijar estándares, pero Mythos demuestra que regular no siempre equivale a tener acceso, capacidad de prueba o influencia temprana sobre sistemas de frontera.

En términos más amplios, el asunto importa también para industrias como blockchain, finanzas digitales y mercados en línea, donde la seguridad del software y de la infraestructura es crítica. Un modelo capaz de descubrir fallas con mayor eficacia podría servir para fortalecer sistemas, pero también para exponer con rapidez debilidades en exchanges, servicios de custodia, redes empresariales y plataformas digitales si no existe un marco de control adecuado.

La controversia alrededor de Mythos no solo trata sobre un modelo concreto. También funciona como un aviso sobre la próxima fase de la competencia tecnológica global: la de quién accede primero, quién audita mejor y quién tiene poder real para imponer límites cuando una IA cruza umbrales con consecuencias para la seguridad colectiva.

POLITICO presentó el caso como una señal de que Europa sigue sin una estrategia sólida para asegurar acceso a sistemas de IA de frontera cuando estos se desarrollan fuera de su radio inmediato de influencia. A la luz de las reacciones oficiales y expertas, la inquietud parece menos coyuntural y más estructural.


Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público

Este artículo fue escrito por un redactor de contenido de IA

 


ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.

Suscríbete a nuestro boletín