Por Canuto  

Las capacidades avanzadas de nuevos modelos obligan a reforzar medidas de acceso y limitar su uso a expertos en defensa digital.

***

  • Anthropic exige verificación de identidad para funciones sensibles.
  • Modelo Claude Mythos detecta y explota vulnerabilidades críticas de forma autónoma.
  • OpenAI restringe acceso a herramientas de ciberseguridad a usuarios verificados.

 

Las principales compañías de inteligencia artificial, Anthropic y OpenAI, han comenzado a implementar medidas más estrictas para controlar el acceso a sus tecnologías, en respuesta al creciente riesgo que representan sus modelos en el ámbito de la ciberseguridad. Lo que inicialmente surgió como herramientas orientadas a tareas cotidianas ha evolucionado rápidamente hacia sistemas capaces de identificar y explotar vulnerabilidades críticas, elevando las preocupaciones a nivel de seguridad nacional.

Este cambio ha llevado a ambas empresas a replantear la forma en que distribuyen sus capacidades más avanzadas. En lugar de ofrecer acceso amplio al público, ahora buscan limitar el uso de estas herramientas a entornos controlados, donde puedan minimizarse los riesgos de abuso, detalla Cryptopolitan.

Verificación de identidad como mecanismo de control

Anthropic ha optado por endurecer sus políticas mediante la introducción de un sistema obligatorio de verificación de identidad para acceder a ciertas funciones sensibles. A partir de ahora, los usuarios deben presentar un documento oficial, como pasaporte o licencia de conducir, junto con una verificación biométrica mediante una selfie en tiempo real.

El proceso es gestionado por su socio Persona, encargado de manejar los datos de verificación. La empresa ha aclarado que esta información no será utilizada para entrenar sus modelos, sino exclusivamente para validar la identidad de los usuarios.

Según Anthropic, esta medida responde a la necesidad de prevenir abusos, hacer cumplir sus políticas de uso y cumplir con obligaciones legales. En caso de fallar el proceso de verificación o intentar acceder desde ubicaciones no autorizadas, los usuarios pueden enfrentar la suspensión de sus cuentas.

Claude Mythos y el salto en capacidades ofensivas

El endurecimiento de estas políticas está directamente relacionado con el desarrollo de Claude Mythos Preview, un modelo que ha demostrado capacidades avanzadas en la identificación y explotación de vulnerabilidades.

En pruebas internas, el sistema fue capaz de detectar fallas de tipo zero-day en sistemas operativos y navegadores ampliamente utilizados. Incluso ingenieros sin formación en ciberseguridad lograron obtener exploits funcionales al pedirle al modelo que buscara vulnerabilidades de ejecución remota.

Uno de los hallazgos más llamativos fue la identificación de errores históricos en software crítico, incluyendo un bug de 27 años en OpenBSD, otro de 16 años en FFmpeg y una vulnerabilidad de 17 años en el servidor NFS de FreeBSD. En este último caso, el modelo generó un exploit que permitía acceso total al sistema sin autenticación.

Estos resultados evidencian un cambio cualitativo en el comportamiento de los modelos, que ya no solo generan código, sino que pueden analizar sistemas complejos y encontrar debilidades explotables.

Un riesgo sistémico en expansión

Más allá de casos puntuales, Anthropic ha señalado que el modelo ha identificado miles de vulnerabilidades adicionales de alta y crítica severidad en software tanto abierto como propietario. Según la empresa, más del 99% de estas fallas aún no han sido corregidas.

En escenarios más complejos, el modelo también ha demostrado la capacidad de encadenar múltiples vulnerabilidades para evadir sistemas de seguridad en navegadores, combinando técnicas avanzadas para superar entornos aislados.

Todo este proceso se ejecutó de forma autónoma, en menos de 24 horas y con un costo inferior a USD $2.000 en uso de API. Evaluaciones externas, como la realizada por el AI Security Institute del Reino Unido, han confirmado que estas capacidades representan un avance significativo en el ámbito de la ciberseguridad ofensiva.

OpenAI apuesta por acceso controlado

En paralelo, OpenAI ha adoptado un enfoque complementario al lanzar GPT-5.4-Cyber, un modelo diseñado específicamente para tareas de ciberseguridad. A diferencia de otros sistemas, este modelo reduce las restricciones en solicitudes relacionadas con hacking, pero únicamente dentro de un entorno altamente controlado.

El acceso está limitado a través del programa Trusted Access for Cyber (TAC), que exige un proceso de validación para garantizar que solo expertos, investigadores y organizaciones encargadas de proteger infraestructuras críticas puedan utilizarlo.

Esta herramienta permite analizar software compilado sin necesidad de acceder al código fuente, facilitando la detección de vulnerabilidades y malware en sistemas complejos.

Un equilibrio cada vez más delicado

El avance de estos modelos plantea un desafío estructural para la industria de inteligencia artificial. Por un lado, ofrecen herramientas poderosas para mejorar la seguridad digital. Por otro, incrementan el riesgo de que estas mismas capacidades sean utilizadas con fines maliciosos.

Iniciativas como Project Glasswing, impulsada por Anthropic, buscan mitigar este riesgo al ofrecer acceso limitado a empresas tecnológicas para reforzar sus sistemas antes de que puedan ser explotados por atacantes.

Al mismo tiempo, las compañías recomiendan adoptar medidas más estrictas de seguridad, como la instalación inmediata de actualizaciones, en lugar de depender de ciclos periódicos tradicionales.

En este contexto, la inteligencia artificial se posiciona como una tecnología de doble filo. Su evolución obliga a las empresas a encontrar un equilibrio entre innovación y control, en un entorno donde la línea entre defensa y ataque es cada vez más difusa.


Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público.

Este artículo fue escrito por un redactor de contenido de IA y revisado por un editor humano para garantizar calidad y precisión.


ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.

Suscríbete a nuestro boletín