Anthropic presentó Project Glasswing, una alianza con varias de las mayores empresas tecnológicas para usar IA avanzada en la detección de vulnerabilidades críticas dentro del software que sostiene gran parte de la infraestructura moderna. La iniciativa gira en torno a Claude Mythos Preview, un modelo no público que, según la empresa, ya descubrió miles de fallas desconocidas, incluidas vulnerabilidades que habían permanecido ocultas durante décadas.
***
- Anthropic reunió a Amazon, Apple, Broadcom, Cisco, CrowdStrike, Linux Foundation, Microsoft y Palo Alto Networks en Project Glasswing.
- Claude Mythos Preview habría detectado miles de vulnerabilidades inéditas, entre ellas un error de 27 años en OpenBSD y otro de 16 años en FFmpeg.
- La empresa comprometerá hasta USD $100.000.000 en créditos y USD $4.000.000 en donaciones para reforzar la seguridad del software de código abierto.
Anthropic anunció el lanzamiento de Project Glasswing, una iniciativa que reúne a varias de las mayores empresas tecnológicas para utilizar inteligencia artificial avanzada en la detección y corrección de fallas de seguridad dentro de algunos de los sistemas de software más importantes del mundo. El proyecto plantea un giro relevante en la forma en que la industria aborda la ciberseguridad, especialmente en un momento en que las capacidades de la IA avanzan con rapidez.
La alianza incorpora a Amazon, Apple, Broadcom, Cisco, CrowdStrike, la Linux Foundation, Microsoft y Palo Alto Networks. El núcleo técnico del esfuerzo será Claude Mythos Preview, un modelo de IA todavía no publicado que Anthropic pondrá a disposición exclusiva de los socios del proyecto y de cerca de otras 40 organizaciones responsables de infraestructura crítica de software.
Según explicó la compañía, el modelo ya ha identificado miles de vulnerabilidades previamente desconocidas durante su fase inicial de pruebas. Entre los hallazgos se incluyen fallas de seguridad que habían permanecido sin detectar por años, incluso en programas ampliamente utilizados y sometidos a revisiones constantes.
Para lectores menos familiarizados con este terreno, el software de infraestructura crítica incluye herramientas, sistemas operativos, bibliotecas y componentes que sirven de base para servicios digitales, redes empresariales y plataformas esenciales. Cuando estos componentes presentan vulnerabilidades, el impacto potencial puede extenderse a miles de organizaciones y millones de usuarios.
Hallazgos iniciales y alcance del modelo
Anthropic indicó que uno de los descubrimientos más llamativos fue un error de 27 años en OpenBSD, un sistema operativo reconocido principalmente por su enfoque en la seguridad. También identificó una vulnerabilidad de 16 años en FFmpeg, un programa de software de video ampliamente usado en la industria tecnológica.
La empresa señaló que las herramientas automatizadas de prueba no habían logrado detectar la falla en FFmpeg, a pesar de haber ejecutado la línea de código afectada cinco millones de veces. Ese detalle fue presentado como una muestra del tipo de errores sutiles que un sistema de IA con fuertes capacidades de codificación y razonamiento podría sacar a la luz.
Anthropic aseguró que se comunicó con los responsables del mantenimiento del software involucrado y que todas las vulnerabilidades encontradas ya fueron corregidas. Ese punto es importante porque reduce el riesgo de que la divulgación pública de los hallazgos termine facilitando ataques oportunistas antes de que existan parches disponibles.
La firma también remarcó que Mythos Preview no fue entrenado específicamente para tareas de ciberseguridad. Aun así, sus capacidades generales para analizar código y razonar sobre sistemas complejos habrían resultado eficaces para localizar fallas que ni analistas humanos ni herramientas convencionales habían podido detectar.
En términos prácticos, esto refuerza una discusión más amplia dentro del sector tecnológico. Los modelos de IA más avanzados no solo sirven para generar texto o escribir código, sino también para revisar enormes bases de software y encontrar patrones peligrosos con una velocidad difícil de igualar por equipos humanos.
Financiamiento, acceso restringido y riesgo de doble uso
Anthropic se comprometió a aportar hasta USD $100.000.000 en créditos de uso para Project Glasswing. Además, destinará USD $4.000.000 en donaciones directas a organizaciones de seguridad de código abierto, un segmento que históricamente ha operado con recursos limitados pese a sostener piezas fundamentales de la infraestructura digital global.
La empresa dejó claro que no planea poner Mythos Preview a disposición del público general. La razón central es la preocupación por el uso indebido del modelo, ya que herramientas con capacidad para descubrir fallas críticas también podrían ser aprovechadas por actores maliciosos para acelerar ataques, campañas de intrusión o explotación de vulnerabilidades.
Esa tensión resume uno de los grandes debates actuales en inteligencia artificial. Las mismas capacidades que pueden ayudar a defensores, investigadores y mantenedores a reforzar el software también podrían aumentar el poder ofensivo de ciberdelincuentes o grupos patrocinados por Estados si caen en manos equivocadas.
Anthropic sostuvo en una publicación de blog que, aunque los riesgos de los ciberataques potenciados por IA son serios, también existen motivos para el optimismo. La compañía afirmó que esas mismas capacidades pueden ser invaluables para encontrar y corregir fallas en software importante, así como para producir nuevo software con menos errores de seguridad.
En esa misma línea, describió a Project Glasswing como un paso importante para dar a los defensores una ventaja duradera en la próxima era de la ciberseguridad impulsada por IA. La formulación refleja una visión estratégica: no se trata solo de responder a amenazas actuales, sino de preparar una infraestructura defensiva para un entorno tecnológico que cambiará en cuestión de meses.
El foco en código abierto y el papel de la Linux Foundation
Uno de los énfasis principales del proyecto es el software de código abierto. Este tipo de software constituye la base de gran parte de los sistemas modernos, incluida una parte significativa de la infraestructura crítica. Sin embargo, muchos de sus mantenedores no cuentan con acceso a equipos costosos ni a herramientas avanzadas de seguridad.
La apuesta de Project Glasswing busca alterar esa ecuación al ofrecer una nueva generación de modelos de IA capaces de identificar y corregir vulnerabilidades a escala. En lugar de reservar estas capacidades solo para grandes corporaciones, la iniciativa pretende acercarlas también a comunidades y organizaciones que sostienen piezas esenciales del ecosistema tecnológico.
Jim Zemlin, director ejecutivo de la Linux Foundation, afirmó que el software de código abierto constituye la gran mayoría del código en los sistemas modernos, incluidos los mismos sistemas que los agentes de IA usan para escribir nuevo software. Añadió que dar a los mantenedores acceso a herramientas de este tipo ofrece una vía creíble para cambiar esa realidad.
Zemlin también sostuvo que así es como la seguridad aumentada por IA puede convertirse en un aliado confiable para cada mantenedor, no solo para quienes pueden permitirse costosos equipos de seguridad. Su comentario ayuda a entender por qué el proyecto ha despertado atención más allá del mundo corporativo.
Desde una perspectiva más amplia, el interés en el código abierto también tiene implicaciones para sectores como blockchain y criptomonedas. Una gran cantidad de infraestructura vinculada a redes, nodos, herramientas de desarrollo y bibliotecas de software depende de componentes abiertos, por lo que avances en auditoría automatizada pueden tener efectos indirectos en esos ecosistemas.
Seguridad nacional y carrera tecnológica
Anthropic indicó además que ha mantenido conversaciones continuas con funcionarios del gobierno de Estados Unidos sobre las capacidades de Mythos Preview. La empresa enmarcó el proyecto en términos de seguridad nacional, argumentando que mantener el liderazgo en tecnología de IA representa una prioridad estratégica para Estados Unidos y sus aliados.
Ese enfoque no aparece en el vacío. La compañía ha estado inmersa en una disputa de alto perfil con el Departamento de Defensa sobre el uso por parte del ejército estadounidense del modelo Claude en operaciones del mundo real. Aunque Project Glasswing se presenta como una iniciativa defensiva, el trasfondo político y geoestratégico es evidente.
La lectura de seguridad nacional también responde a una preocupación concreta. Ejecutivos de Anthropic han advertido que, sin acción coordinada, capacidades similares podrían terminar al alcance de actores que las utilicen con fines maliciosos. Bajo esa lógica, desarrollar defensas antes de que la tecnología se generalice sería una prioridad inmediata.
Las organizaciones participantes deberán compartir sus hallazgos con la industria en general. Ese requisito apunta a evitar que los beneficios del proyecto queden aislados dentro de un pequeño grupo de empresas y a crear un efecto de derrame que fortalezca de forma más amplia la seguridad del ecosistema digital.
De acuerdo con información reportada por CyberScoop, el éxito del proyecto dependerá en parte de si este enfoque colaborativo logra seguir el ritmo de los rápidos avances en las capacidades de la IA. Ese desafío es central porque los sistemas de frontera pueden mejorar sustancialmente en lapsos muy cortos, obligando a defensores y atacantes a adaptarse de manera continua.
Anthropic reconoció ese problema en su propio mensaje público. La empresa señaló que Project Glasswing es un punto de partida y que ninguna organización puede resolver por sí sola estos problemas de ciberseguridad. También añadió que desarrolladores de IA de frontera, compañías de software, investigadores de seguridad, mantenedores de código abierto y gobiernos tienen papeles esenciales que cumplir.
La firma concluyó que defender la infraestructura cibernética del mundo podría llevar años, mientras que las capacidades de IA de frontera probablemente avanzarán de manera sustancial en apenas los próximos meses. Por eso, insistió en que si los defensores quieren mantenerse por delante, necesitan actuar ahora.
ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.
Suscríbete a nuestro boletín
Artículos Relacionados
IA
Anthropic lanza Project Glasswing para blindar software crítico con IA avanzada
Empresas
Uber amplía su alianza con AWS y prueba Trainium3 en un golpe a Oracle y Google
Educación
Cómo construir un segundo cerebro con IA usando solo carpetas y archivos de texto
Reino Unido