Nuevas pruebas del Instituto de Seguridad de IA del Reino Unido muestran que los modelos de frontera están avanzando a una velocidad inusual en tareas cibernéticas autónomas. Claude Mythos Preview y GPT-5.5 no solo superaron la tendencia previa de mejora, sino que también llevaron al límite los benchmarks actuales, en una señal que podría obligar a gobiernos y empresas a acelerar sus defensas.
***
- AISI estimó en febrero de 2026 que la capacidad cibernética autónoma de la IA se duplicaba cada 4,7 meses desde finales de 2024.
- Claude Mythos Preview y GPT-5.5 superaron claramente esa tendencia y completaron pruebas que antes ningún modelo había resuelto.
- El instituto advierte que, aunque los benchmarks son imperfectos, el ritmo del progreso ya sugiere riesgos tangibles para empresas y gobiernos.
Los modelos de inteligencia artificial (IA) más avanzados están mejorando con rapidez en tareas específicas de ciberseguridad, hasta el punto de obligar a replantear cómo se mide su progreso y cómo deben prepararse gobiernos y empresas.
Esa es la principal conclusión de nuevas evaluaciones del Instituto de Seguridad de IA del Reino Unido, conocido como AISI, que analizó el desempeño reciente de Claude Mythos Preview y GPT-5.5.
Según el instituto, ambos modelos superaron de forma sustancial la tendencia de avance que ya venía observándose desde finales de 2024. El hallazgo no significa que la IA se haya vuelto universalmente competente en todas las áreas de la ciberseguridad, pero sí apunta a un aumento acelerado en su autonomía para completar tareas ofensivas complejas dentro de entornos de prueba controlados.
Para entender la relevancia del dato, conviene recordar que AISI sigue lo que llama “horizontes temporales cibernéticos”. Esa métrica estima cuánto tiempo de trabajo experto humano puede completar un modelo de IA con una probabilidad determinada de éxito. Es una medida imperfecta, pero útil para observar tendencias sobre autonomía y persistencia en tareas técnicas.
En febrero de 2026, AISI calculó internamente que la duración de las tareas cibernéticas que los modelos podían completar se había duplicado cada 4,7 meses desde la aparición de los modelos de razonamiento a finales de 2024. Esa cifra ya implicaba una aceleración frente a la estimación de noviembre de 2025, cuando el tiempo de duplicación rondaba los 8 meses tanto para un nivel de fiabilidad de 50 % como de 80 %.
Desde entonces, Claude Mythos Preview y GPT-5.5 volvieron a dejar atrás esa línea de tendencia. El instituto aclara que todavía no está claro si se trata de un salto aislado o del inicio de una nueva fase más rápida de progreso. Aun con esa cautela, la dirección general del cambio preocupa porque sugiere que las capacidades cibernéticas de la IA podrían traducirse pronto en riesgos más visibles para organizaciones reales.
Qué mide AISI y por qué importa
Los benchmarks de horizonte temporal no buscan capturar toda la capacidad de un modelo. Lo que hacen es comparar el desempeño de la IA con el tiempo que tardaría un experto humano en completar la misma tarea. En el caso del conjunto estrecho de pruebas cibernéticas de AISI, las tareas consisten en identificar y explotar debilidades de seguridad en sistemas autocontenidos, con desafíos de ingeniería inversa y explotación web.
El instituto asigna a cada tarea una estimación del tiempo que tardaría un profesional humano en resolverla. Para más de un tercio de los casos, esa referencia proviene de mediciones reales con expertos. En el resto, se utilizan estimaciones de especialistas. AISI reconoce que estas líneas base pueden sobrestimar o subestimar la dificultad real, pero sostiene que siguen siendo una forma más objetiva de medir complejidad que otras métricas disponibles.
Con esos datos, el instituto calcula la duración de tarea que un modelo puede completar con cierta probabilidad de éxito. En esta publicación, AISI se concentró en un umbral de fiabilidad de 80 %. También impuso un límite deliberado de 2,5 millones de tokens por tarea para mantener la comparabilidad histórica entre modelos, aunque esa decisión reduce artificialmente el rendimiento observado.
El propio AISI ofrece un ejemplo concreto: en esa configuración de prueba, con un presupuesto de 2,5 millones de tokens por tarea, Claude Sonnet 4.5 tendría éxito 80 % de las veces en tareas cibernéticas que a expertos humanos les llevarían 16 minutos. El problema es que los modelos más nuevos ya están alcanzando niveles tan altos de éxito que el benchmark empieza a quedarse corto para medirlos con precisión.
En las tareas más largas del conjunto estrecho, Mythos Preview y GPT-5.5 registraron tasas de éxito cercanas o iguales a 100 %. Eso produjo barras de error amplias en el límite superior y dejó a los modelos recientes cerca del techo de lo que el conjunto actual puede evaluar. Sin el tope de tokens, explicó el instituto, las tasas de éxito son tan elevadas que los horizontes temporales se vuelven difíciles o imposibles de calcular.
Claude Mythos Preview y GPT-5.5 rompen la tendencia previa
El nuevo punto de inflexión llegó con un checkpoint más reciente de Claude Mythos Preview y con GPT-5.5. Ambos superaron claramente la tendencia previa de duplicación de 4,7 meses. AISI no entregó todavía una nueva cifra puntual de tiempo de duplicación incorporando ambos modelos, pero sí sostuvo que el salto es material y que podría implicar una trayectoria más veloz.
La comparación con otros estudios refuerza esa lectura. AISI señaló que los resultados de METR, organización centrada en tareas de ingeniería de software, apuntan a un tiempo de duplicación constante de 4,2 meses desde finales de 2024. Excluyendo Mythos Preview, esa cifra se mantiene en 4,2 meses. Si se lo incluye, se acelera levemente hasta unos 4 meses.
Ese paralelismo es importante porque el software y la ciberseguridad son dominios distintos, pero relacionados. Si ambos muestran una dinámica de avance similar, la hipótesis de un progreso acelerado gana peso. El instituto, sin embargo, insiste en no convertir estos resultados en una ley fija ni en una predicción exacta del futuro.
También subraya varias limitaciones metodológicas. Las tareas largas del conjunto estrecho son pocas, apenas seis con duraciones de 8 horas o más. Además, la muestra de modelos históricos es reducida. Aun así, el análisis de sensibilidad sugiere que quitar cualquier modelo individual del cálculo previo a Mythos solo mueve la estimación del tiempo de duplicación entre 4,1 y 5,0 meses.
En otras palabras, la tendencia no depende de un solo sistema. Lo que sí podría cambiar es la velocidad exacta del ritmo actual. Esa incertidumbre es clave para los reguladores y equipos de seguridad, porque implica que el avance podría estabilizarse o seguir acelerándose con futuros modelos y checkpoints.
Las pruebas de cyber range mostraron un salto aún más visible
Más allá del benchmark estrecho, AISI también evalúa modelos en entornos conocidos como cyber ranges. Son simulaciones de ataques de múltiples etapas contra pequeñas redes empresariales no defendidas, donde el acceso inicial ya fue obtenido. Estas pruebas exigen planificación sostenida, ejecución coordinada y capacidad para mantener una estrategia durante más tiempo.
En esas evaluaciones, el checkpoint más reciente de Mythos Preview completó por primera vez ambos cyber ranges del instituto. En “The Last Ones”, un ataque simulado de 32 pasos contra una red corporativa, resolvió el escenario en 6 de 10 intentos. Además, consiguió completar “Cooling Tower”, que antes no había sido resuelto por ningún modelo, en 3 de 10 intentos.
GPT-5.5 también mostró avances, aunque algo menores en esta métrica. El modelo resolvió “The Last Ones” en 3 de 10 intentos. En febrero de 2026, cuando Opus 4.6 fue evaluado, había logrado un máximo de 22 de 32 pasos en ese mismo escenario. Ese contraste ayuda a dimensionar el salto reciente en autonomía operativa dentro de las pruebas controladas del instituto.
AISI destacó otro punto relevante: estos incrementos notables no siempre requieren un lanzamiento completamente nuevo. Las iteraciones posteriores de un mismo modelo también pueden modificar de forma significativa la estimación de las capacidades de frontera. Eso complica la supervisión pública, porque las mejoras pueden aparecer entre versiones sin un cambio comercialmente evidente para el usuario general.
Además, el instituto recordó que en experimentos de cyber range se emplearon presupuestos de hasta 100 millones de tokens, y el desempeño probablemente seguiría mejorando más allá de ese umbral. Los modelos recientes parecen beneficiarse de forma desproporcionada cuando se les permite operar con presupuestos de tokens mucho más altos y con andamiajes de agente más robustos.
Implicaciones para empresas, gobiernos y defensores
El mensaje central del instituto no es que la IA ya pueda reemplazar por completo a los profesionales de ciberseguridad. De hecho, las pruebas están limitadas a conjuntos específicos y entornos controlados. Sin embargo, la evidencia sí apunta a que los modelos de frontera están ganando capacidad para ejecutar tareas cibernéticas autónomas con una rapidez que se mide en meses, no en años.
Eso tiene una doble lectura. Por un lado, los defensores pueden aprovechar estos sistemas para detectar vulnerabilidades y mejorar su postura de seguridad. Por otro, el mismo progreso sugiere que atacantes con acceso a estas herramientas, o a versiones derivadas más accesibles con el tiempo, podrían operar con mayor velocidad, escala y persistencia.
En esa línea, Palo Alto Networks informó hallazgos que van en una dirección similar. La empresa afirmó que los modelos más recientes son extraordinariamente capaces para encontrar vulnerabilidades y convertirlas en rutas críticas de explotación casi en tiempo real. Como resultado de pruebas con IA, publicó avisos de seguridad sobre 26 CVE que representaban 75 problemas, frente a un volumen mensual típico inferior a cinco CVE, dentro de más de 130 productos.
La compañía dijo además que todas las vulnerabilidades importantes en sus productos SaaS habían sido corregidas y que existían parches para todos los productos operados por clientes. Entre sus prioridades inmediatas para las empresas mencionó cuatro frentes: corregir vulnerabilidades antes que los atacantes, reducir la superficie de ataque, desplegar detección y respuesta en todos los sistemas, y construir operaciones de seguridad capaces de responder en minutos.
AISI coincide en que el momento de invertir en bases sólidas de seguridad es ahora. También recordó que el National Cyber Security Centre publicó orientación reciente sobre el uso de modelos de IA para encontrar vulnerabilidades. Mientras tanto, el instituto ya prepara evaluaciones más exigentes, con nuevos cyber ranges, mejoras a los actuales e incorporación de defensas activas para reflejar condiciones más cercanas al mundo real.
La advertencia final es sobria, pero clara. Ningún benchmark, por sí solo, debe tomarse como una medida exacta de la capacidad de la IA. Aun así, la consistencia del avance entre modelos, metodologías y datos independientes hace difícil ignorar la señal. Si el ritmo actual persiste, las capacidades cibernéticas de la IA seguirán siendo uno de los frentes más volátiles y delicados de toda la carrera tecnológica.
Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público.
Este artículo fue escrito por un redactor de contenido de IA.
ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.
Suscríbete a nuestro boletín
Artículos Relacionados
Empresas
Fundación de Jensen Huang dona USD $108,3 millones en cómputo de IA de CoreWeave a investigadores
IA
Microsoft integra IA en Edge para leer todas tus pestañas y responder con contexto
Empresas
Anthropic separa el uso de Agent SDK de los límites de Claude con créditos mensuales
China