Un reporte de Forbes asegura que el modelo de IA de una startup israelí logró superar a la mayoría de los humanos en competencias élite de hacking, una señal de que la ciberseguridad entra en una fase más compleja, automatizada y potencialmente riesgosa.
***
- Sistemas de IA ya vencen a la mayoría de participantes humanos en competencias avanzadas de hacking.
- La startup israelí Tenzai logró clasificarse en el top 100 en la mayoría de estas competiciones, según Forbes.
- Un cambio relevante para la ciberseguridad, tanto en defensa como en capacidades ofensivas automatizadas.
La inteligencia artificial acaba de sumar otra señal de avance acelerado en un terreno especialmente sensible: la ciberseguridad. De acuerdo con Forbes, sistemas de IA ya lograron superar a la mayoría de los humanos en competencias élite de hacking, un resultado que refuerza la idea de que estas herramientas no solo asisten a los expertos, sino que comienzan a competir con ellos al más alto nivel.
El dato es relevante porque las competencias de hacking suelen funcionar como laboratorios de prueba para medir capacidades reales de ataque y defensa en entornos controlados. Allí se ponen a prueba habilidades como la identificación de vulnerabilidades, la explotación de fallos y la resolución rápida de problemas complejos. Si una IA ya vence a la mayor parte de los participantes humanos en ese contexto, el impacto potencial trasciende el ámbito académico o experimental.
En la práctica, este tipo de resultados alimenta un debate más amplio sobre cómo la IA transformará la seguridad digital en empresas, gobiernos y plataformas críticas. También abre nuevas preguntas sobre el equilibrio entre automatización defensiva y automatización ofensiva, justo cuando el sector tecnológico busca contener amenazas cada vez más veloces y sofisticadas.
El reporte publicado por Forbes apunta, por tanto, a un posible punto de inflexión. No se trata solo de que la IA ayude a escribir código, clasificar alertas o detectar patrones anómalos. La implicación más profunda es que empieza a destacar en escenarios competitivos donde históricamente el ingenio humano ha sido el factor decisivo.
Por qué importa un resultado así en competencias de hacking
Las competencias avanzadas de hacking ocupan un lugar singular dentro del ecosistema tecnológico. Aunque son eventos controlados, suelen imitar situaciones reales con bastante fidelidad. Los participantes deben analizar sistemas, detectar puntos débiles y actuar bajo presión, a menudo con límites estrictos de tiempo y con reglas que premian tanto la precisión como la creatividad.
Ese contexto hace que los resultados obtenidos en estos torneos sean observados de cerca por empresas de seguridad, desarrolladores de software y actores institucionales. No son simples juegos. En muchos casos, permiten anticipar qué herramientas y metodologías podrían tener mejor desempeño en incidentes del mundo real.
Por eso, que una IA supere a la mayoría de los humanos en ese entorno no debe leerse como una curiosidad aislada. Sugiere que ciertos modelos ya pueden ejecutar tareas complejas de análisis técnico y explotación con un nivel de eficacia competitivo. Para el sector, eso puede traducirse en mejoras sustanciales en velocidad de respuesta, priorización de fallos y cobertura de amenazas.
Al mismo tiempo, el mismo avance podría ser aprovechado por actores maliciosos. Esa es una de las tensiones permanentes en ciberseguridad: una innovación útil para defender sistemas también puede facilitar ataques más automatizados, persistentes o escalables. La ventaja técnica rara vez permanece de un solo lado durante mucho tiempo.
Startup israelí Tenzai logra clasificarse en top 100
Según el informe, una startup israelí llamada Tenzai ha desarrollado un agente de inteligencia artificial especializado en hacking que superó al 99% de aproximadamente 125.000 competidores humanos en seis competiciones de tipo Capture The Flag (CTF) de alto nivel.
La IA de Tenzai, basada en modelos adaptados de OpenAI y Anthropic (como Claude), logró clasificarse en el top 100 en la mayoría de estas competiciones, superando a la gran mayoría de participantes humanos, según se indicó. Sin embargo, nunca llegó al primer lugar, lo que indica que los hackers humanos de élite aún mantienen ventaja en la cima.
El agente de IA se mostró especialmente bueno combinando varios exploits de vulnerabilidades de forma automatizada, algo que antes era muy difícil de lograr sin intervención humana. Además, redujo drásticamente el tiempo de descubrimiento y explotación de vulnerabilidades de días o semanas a horas y a un costo muy bajo.
Según se informó, correr la IA en todas las seis competiciones costó solo unos USD $5.000, lo que demuestra su escalabilidad y accesibilidad.
La startup Tenzai fue fundada en 2025 por exejecutivos de inteligencia israelí, levantó 75 millones de dólares en ronda semilla y tiene una valoración de 330 millones.
IA, automatización y el nuevo mapa de riesgos
En los últimos años, la IA ya había demostrado capacidades importantes en programación, depuración de errores y asistencia técnica. Sin embargo, el hacking competitivo exige algo más que generación de texto o sugerencias de código. Requiere interpretar contextos ambiguos, probar rutas alternativas y adaptarse rápido cuando una hipótesis falla.
Si estos sistemas están alcanzando un nivel de desempeño superior al de la mayoría de los humanos en competencias élite, entonces el salto cualitativo es mayor de lo que muchos esperaban. La cuestión deja de ser si la IA puede ayudar a un analista y pasa a ser cuánto tiempo tardará en asumir tareas que hoy dependen de especialistas con alta formación.
Para empresas y organizaciones, esto puede traer beneficios claros. Una IA capaz de detectar y explotar vulnerabilidades en entornos de prueba también podría utilizarse para auditorías internas más frecuentes, revisiones automáticas de software y simulaciones defensivas permanentes. Eso reduciría el tiempo entre la aparición de un fallo y su corrección.
Pero el otro lado del escenario es menos cómodo. Si la misma lógica se aplica fuera de marcos autorizados, la barrera de entrada para ejecutar ataques complejos podría disminuir. No haría falta contar con equipos humanos tan especializados para intentar comprometer sistemas si parte del proceso puede ser delegado a herramientas inteligentes.
Ese cambio no significa que el factor humano desaparezca. Más bien sugiere que el rol del experto podría desplazarse hacia la supervisión, la validación estratégica y la respuesta ante casos que todavía exijan juicio contextual. La IA puede acelerar la operación, pero la gobernanza del riesgo seguirá siendo una responsabilidad humana.
Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público
Este artículo fue escrito por un redactor de contenido de IA
ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.
Suscríbete a nuestro boletín
Artículos Relacionados
Avalanche
Avalanche enfrenta presión bajista mientras Japón migra USD $2.000 millones a su red
Educación
Cinco lecciones de un curso exprés de vibe coding para personas sin perfil técnico
IA
Los mejores modelos de IA aún fallan en matemáticas pese al furor por la AGI: estudio
IA