Por Canuto  

Anthropic investiga un presunto acceso no autorizado a Claude Mythos Preview, su modelo de IA para ciberseguridad que la empresa reservó a un grupo muy limitado de compañías por el riesgo de uso malicioso. El caso reabre el debate sobre cómo contener herramientas de IA capaces de detectar y explotar vulnerabilidades a gran escala.

***

  • Anthropic dijo que investiga un supuesto acceso no autorizado a Claude Mythos Preview a través del entorno de un proveedor externo.
  • Según los reportes, un pequeño grupo vinculado a un canal privado de Discord habría usado acceso de un contratista y técnicas comunes de investigación en internet.
  • Mythos fue lanzado solo a empresas seleccionadas dentro de Project Glasswing por su capacidad para hallar y explotar vulnerabilidades en sistemas y navegadores.

 


Anthropic confirmó que investiga un reporte sobre acceso no autorizado a Claude Mythos Preview, su nuevo modelo de inteligencia artificial enfocado en ciberseguridad. La herramienta había sido presentada a inicios de abril como un sistema de uso restringido, precisamente por el riesgo de que sus capacidades pudieran convertirse en un arma en manos equivocadas.

El caso fue divulgado por Bloomberg y luego retomado por otros múltiples medios de noticia. De acuerdo con la información disponible, un pequeño grupo de usuarios habría conseguido entrar al modelo el 7 de abril, el mismo día en que Anthropic anunció su despliegue limitado para pruebas con un grupo selecto de empresas.

La empresa señaló que el supuesto acceso irregular se habría producido a través de uno de los entornos de un proveedor externo. En su declaración, Anthropic afirmó que por ahora no tiene evidencia de que la actividad reportada haya afectado sus sistemas internos o se haya extendido más allá de ese entorno específico.

La noticia es especialmente sensible porque Mythos no es un chatbot convencional. Según la propia Anthropic, se trata de un modelo de propósito general con capacidades avanzadas para identificar y explotar vulnerabilidades en los principales sistemas operativos y navegadores web cuando recibe instrucciones para ello.

Qué es Mythos y por qué genera preocupación

Para entender la gravedad del caso, conviene recordar el contexto. Anthropic presentó Mythos como una herramienta diseñada para ciberseguridad empresarial, capaz de ayudar a encontrar fallas críticas en software de uso cotidiano antes de que sean aprovechadas por atacantes reales.

La compañía dijo en su lanzamiento que había detectado miles de vulnerabilidades de alta gravedad con ayuda del modelo. PCMag añadió que Mozilla reportó recientemente el hallazgo de 271 vulnerabilidades en Firefox utilizando Mythos, un dato que refuerza el argumento de que la herramienta posee un alcance técnico poco común.

Precisamente por eso, Anthropic optó por no lanzarlo al público. El acceso oficial quedó limitado a un pequeño grupo de empresas dentro de la iniciativa Project Glasswing. Entre las organizaciones mencionadas en los reportes figuran Nvidia, Google, Amazon Web Services, Apple y Microsoft, mientras que The Guardian también mencionó a Goldman Sachs entre las firmas participantes en las pruebas.

Además del interés empresarial, el modelo ya estaba bajo observación gubernamental. The Guardian destacó que las autoridades ven con inquietud el potencial de Mythos para acelerar ataques complejos, y citó la evaluación del Instituto de Seguridad de IA del Reino Unido, que describió al modelo como un paso adelante frente a generaciones previas en términos de amenaza cibernética.

Ese organismo indicó que Mythos podía ejecutar ataques que requieren múltiples acciones y detectar debilidades en sistemas informáticos sin intervención humana. Según esa evaluación, tareas que normalmente tomarían días a expertos humanos podían ser resueltas en mucho menos tiempo por el modelo.

Incluso se reportó que Mythos fue el primer sistema de IA en completar con éxito una simulación de 32 pasos de un ciberataque creada por el instituto británico. Lo consiguió en tres de diez intentos, un resultado que elevó aún más las alarmas sobre su potencial ofensivo.

Cómo se habría producido el acceso no autorizado

Según Bloomberg, el grupo involucrado formaríaparte de un canal privado de Discord dedicado a rastrear información sobre modelos de IA no publicados. Los integrantes no han sido identificados públicamente, pero uno de ellos fue descrito como un contratista externo de Anthropic.

Esa persona habría facilitado parte del acceso usado por el grupo. A ello se sumó el empleo de herramientas de investigación en internet de uso común y conocimiento previo sobre el formato y la ubicación de otros modelos alojados por Anthropic.

Los reportes indican que los usuarios aprovecharon información obtenida de una reciente filtración de datos de Mercor para hacer una conjetura fundamentada sobre dónde podía estar ubicado Mythos dentro de la infraestructura relacionada con la empresa. A partir de ahí, lograron entrar al sistema y usarlo de manera regular durante más de dos semanas.

Bloomberg dijo haber corroborado las afirmaciones con capturas de pantalla y una demostración en vivo del modelo en funcionamiento. También señaló que otros modelos de IA no publicados de Anthropic habrían sido accedidos por el mismo grupo, aunque ese punto no fue ampliado por la empresa en su respuesta pública.

De acuerdo con las declaraciones del grupo, sus miembros no habrían utilizado Mythos con fines directos de ciberseguridad. La aparente intención era “jugar” con el modelo y evitar acciones que pudieran llamar la atención de Anthropic o activar mecanismos de detección.

Aun así, la explicación no elimina los riesgos. Una vez que se demuestra que una barrera de acceso puede ser superada, otros actores podrían intentar replicar el método con fines mucho más agresivos. Esa es, de hecho, una de las principales preocupaciones que subyacen al lanzamiento restringido del modelo.

La respuesta de Anthropic y las dudas que deja el incidente

En su declaración pública, Anthropic dijo: “Estamos investigando un informe que afirma un acceso no autorizado a Claude Mythos Preview a través de uno de los entornos de nuestros proveedores externos”. La empresa insistió en que, hasta ahora, no tiene pruebas de un impacto sobre sus sistemas corporativos.

La precisión de esa respuesta es relevante. Al acotar el incidente a un entorno de proveedor, Anthropic intenta separar su infraestructura central del episodio reportado. Sin embargo, el caso igual plantea dudas sobre la seguridad extendida de las cadenas de acceso, un problema bien conocido en ciberseguridad y cada vez más importante en despliegues de IA avanzada.

También pone bajo presión el argumento de exclusividad controlada con el que fue presentado Project Glasswing. La lógica del programa era sencilla: permitir que un número muy reducido de empresas examinara el modelo para detectar fallas y corregirlas antes de que herramientas similares llegaran a manos de atacantes o fueran imitadas por competidores menos prudentes.

Si un grupo no autorizado pudo acceder desde el primer día, la contención inicial queda en entredicho. No significa necesariamente que Mythos haya sido usado para ataques reales, pero sí sugiere que el perímetro de seguridad de un producto tan sensible puede ser más frágil de lo previsto.

El episodio también se conecta con una discusión más amplia dentro del sector de IA. A medida que los modelos dejan de ser solo asistentes de texto y pasan a intervenir en tareas técnicas de alto impacto, los controles de acceso, la segmentación de entornos y la seguridad de proveedores externos se vuelven tan importantes como el rendimiento del modelo mismo.

Para empresas, gobiernos y reguladores, el asunto va más allá de Anthropic. La pregunta de fondo es cómo limitar el acceso a sistemas capaces de automatizar reconocimiento de fallas, escalar vectores de ataque y reducir el tiempo que normalmente necesitaría un equipo humano especializado.

Por ahora, Anthropic no ha anunciado un cambio formal en sus planes de lanzamiento para Mythos. Tampoco ha ofrecido detalles públicos sobre el número exacto de usuarios involucrados o sobre posibles medidas correctivas derivadas de la investigación.

Lo que sí queda claro es que el incidente golpea a uno de los argumentos centrales del producto: que su distribución limitada podía mantener sus capacidades fuera del alcance de usuarios indebidos. En un entorno donde la seguridad de la IA ya es un tema geopolítico y corporativo, esa promesa será examinada con más rigor a partir de ahora.


Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público

Este artículo fue escrito por un redactor de contenido de IA

 


ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.

Suscríbete a nuestro boletín