Google aseguró haber frustrado un ataque informático donde hackers aparentemente utilizaron inteligencia artificial para descubrir y explotar una vulnerabilidad “zero-day”, un escenario que durante años había sido considerado uno de los mayores riesgos teóricos para la ciberseguridad global.
***
- Google cree que atacantes usaron IA para descubrir una vulnerabilidad desconocida.
- El ataque buscaba evadir autenticación de dos factores mediante scripts en Python.
- Expertos advierten que este podría ser apenas el inicio de una nueva era de ciberataques.
La inteligencia artificial podría estar entrando oficialmente en una nueva fase dentro del mundo de la ciberseguridad ofensiva. Google reveló este lunes que detectó y bloqueó un intento de ciberataque aparentemente impulsado por modelos de IA capaces de descubrir y explotar vulnerabilidades desconocidas en software, un avance que durante años fue visto por expertos como uno de los escenarios más peligrosos asociados al desarrollo acelerado de modelos avanzados de inteligencia artificial.
Según una investigación publicada por Google Threat Intelligence Group, reseñada por The New York Times, la compañía tiene “alta confianza” en que el grupo criminal detrás del ataque utilizó inteligencia artificial para ayudar tanto en el descubrimiento como en la “weaponization” de una vulnerabilidad zero-day, término utilizado para describir fallas críticas desconocidas incluso para los desarrolladores del software afectado. Históricamente, este tipo de vulnerabilidades fueron consideradas extremadamente raras y valiosas debido a que permiten comprometer sistemas antes de que exista cualquier parche o mecanismo defensivo disponible.
Durante años, especialistas en seguridad advirtieron que la IA eventualmente podría reducir dramáticamente el tiempo necesario para encontrar errores críticos dentro de millones de líneas de código, automatizando tareas que antes requerían equipos altamente especializados trabajando manualmente durante semanas o meses. Hasta ahora, sin embargo, la posibilidad de un ataque real impulsado principalmente por inteligencia artificial permanecía mayormente dentro del terreno teórico.
Google considera que el incidente detectado durante los últimos meses representa la primera evidencia concreta conocida de un ciberataque donde la IA habría desempeñado un rol central dentro del proceso ofensivo.
El ataque utilizó una vulnerabilidad desconocida
La compañía no reveló públicamente cuándo ocurrió exactamente el intento de intrusión ni identificó a los responsables del ataque. Tampoco confirmó cuál modelo de inteligencia artificial habría sido utilizado por los hackers, aunque aclaró que no cree que se trate de Gemini, su propia plataforma de IA generativa.
De acuerdo con el reporte técnico, la vulnerabilidad afectaba a una popular herramienta open-source de administración de sistemas basada en web. Los atacantes desarrollaron scripts utilizando Python para explotar la falla e intentar evadir mecanismos de autenticación de dos factores, una de las principales barreras de seguridad utilizadas actualmente para proteger accesos sensibles.
Google explicó que el ataque también requería credenciales válidas, como nombres de usuario y contraseñas legítimas, para resultar completamente exitoso. Aun así, la combinación entre acceso previo y bypass de autenticación habría permitido comprometer sistemas protegidos con relativa facilidad.
La compañía señaló que logró advertir rápidamente al desarrollador del software vulnerable, permitiendo distribuir un parche antes de que el exploit causara daños relevantes. Google decidió además no revelar públicamente ni el nombre de la herramienta afectada ni la identidad del grupo criminal involucrado.
Lo más inquietante para investigadores no es únicamente la existencia del intento de intrusión, sino las características del código detectado durante el análisis forense. Según expertos de Google, varias señales sugieren fuertemente que parte importante del exploit fue generado o asistido mediante inteligencia artificial.
Entre esas pistas figuraban comentarios excesivamente explicativos, estructuras poco naturales y otros patrones que investigadores consideran inconsistentes con programación humana tradicional. Rob Joyce, exdirector de ciberseguridad de la National Security Agency, revisó los hallazgos antes de su publicación y afirmó que los indicios encontrados representan “lo más cercano hasta ahora a una huella dactilar en la escena del crimen”.
La industria teme una nueva etapa para el hacking
El caso aparece en un momento particularmente sensible para gobiernos y compañías tecnológicas, que actualmente debaten hasta qué punto los modelos avanzados de IA deberían ser regulados debido a sus posibles implicaciones en ciberseguridad.
Las vulnerabilidades zero-day históricamente fueron consideradas algunos de los activos más valiosos dentro del mercado clandestino de exploits. En determinados casos, herramientas capaces de explotar fallas desconocidas llegaron a venderse por millones de dólares dentro de mercados negros vinculados a espionaje, ciberdelincuencia y operaciones estatales ofensivas.
Sin embargo, el rápido avance de modelos especializados en programación y análisis de software amenaza con alterar completamente esa dinámica. El mes pasado, Anthropic presentó Mythos, un modelo de inteligencia artificial diseñado específicamente para analizar código y detectar vulnerabilidades críticas.
Según explicó la empresa, Mythos logró identificar miles de fallas zero-day distribuidas entre los principales sistemas operativos y navegadores web del mundo, incluyendo vulnerabilidades que habían permanecido ocultas durante décadas. Debido al enorme potencial ofensivo de esa capacidad, Anthropic decidió compartir el modelo únicamente con un número limitado de compañías y agencias gubernamentales en Estados Unidos y Reino Unido.
La preocupación aumenta además porque la IA ya comenzó a ser utilizada dentro de operaciones ofensivas reales. A finales del año pasado, Anthropic reveló que hackers patrocinados por el Estado chino utilizaron su tecnología para intentar infiltrar sistemas pertenecientes a aproximadamente 30 empresas y organismos gubernamentales alrededor del mundo.
Ese episodio fue considerado el primer caso documentado donde inteligencia artificial participó activamente en recopilación de información sensible con mínima supervisión humana, anticipando un posible cambio estructural en la forma en que se desarrollan ciberataques modernos.
Google cree que esto es apenas el comienzo
John Hultquist, principal analista de Google Threat Intelligence Group, afirmó que el incidente detectado probablemente representa apenas una pequeña muestra de una tendencia mucho más amplia que recién comienza a hacerse visible públicamente.
“Creemos que esto es la punta del iceberg”, señaló durante una entrevista. “Este problema probablemente es mucho más grande; esta es apenas la primera evidencia tangible que podemos observar.”
Según explicó, Google posee otros indicadores técnicos adicionales que fortalecen su conclusión sobre la participación de inteligencia artificial en el desarrollo del exploit, aunque la compañía decidió no divulgar públicamente esos detalles para evitar revelar capacidades internas de análisis.
Para varios especialistas, el episodio podría intensificar los llamados internacionales a establecer mecanismos de liberación controlada sobre modelos avanzados de IA. Algunos expertos consideran que ciertos sistemas extremadamente poderosos deberían pasar por revisiones de seguridad gubernamentales antes de ser distribuidos ampliamente.
The New York Times reportó recientemente que la administración Trump evalúa distintas propuestas regulatorias relacionadas con inteligencia artificial avanzada, incluyendo posibles procesos formales de revisión para modelos frontier AI antes de su despliegue comercial masivo.
Aun así, algunos investigadores sostienen que la IA podría terminar fortaleciendo la ciberseguridad en el largo plazo. La expectativa es que modelos avanzados eventualmente permitan desarrollar software prácticamente libre de errores humanos, reduciendo significativamente la superficie global de ataque.
El problema inmediato, según Google, es que internet todavía funciona sobre enormes cantidades de código heredado, escrito durante décadas bajo estándares imperfectos de seguridad. Mientras ese ecosistema continúe existiendo, la IA podría acelerar tanto las capacidades defensivas como ofensivas de manera simultánea.
“El desafío es que apenas estamos comenzando ese proceso y todavía debemos convivir con un mundo de software que ya existe”, explicó Hultquist. “Los modelos más avanzados nos permitirán construir el software más seguro que jamás hayamos creado. Eso será una enorme victoria para la ciberseguridad. Pero primero debemos atravesar esta etapa de transición.”
Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público.
Este artículo fue escrito por un redactor de contenido de IA y revisado por un editor humano para garantizar calidad y precisión.
ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.
Suscríbete a nuestro boletín
Artículos Relacionados
Empresas
OpenAI invertirá USD $4.000 millones para desplegar IA en corporaciones a través de nueva empresa
Empresas
Cerebras eleva tamaño de su IPO hasta USD $4.800 millones ante explosiva demanda por acciones de IA
Estados Unidos
OpenAI enfrenta demanda federal por presunto vínculo de ChatGPT con tiroteo en universidad de Florida
Ethereum