Por Canuto  

Anthropic confirmó que desarrolla y prueba con clientes de acceso anticipado un nuevo modelo de IA más potente que sus versiones previas, después de que una filtración expusiera borradores internos, referencias a Claude Mythos y Capybara, y advertencias sobre riesgos de ciberseguridad sin precedentes.
***

  • Anthropic dijo que su nuevo modelo representa “un cambio de nivel” y es el más capaz que ha construido hasta ahora.
  • La filtración reveló borradores sobre Claude Mythos, el nivel Capybara y una estrategia de lanzamiento limitada por sus riesgos cibernéticos.
  • El material expuesto también incluyó detalles de un retiro exclusivo para CEOs europeos y otros activos internos accesibles públicamente.


Anthropic confirmó que desarrolla un nuevo modelo de inteligencia artificial más potente que cualquiera de los que ha lanzado hasta ahora, luego de que una filtración de datos dejara al descubierto documentos internos que revelaban su existencia. La empresa señaló que ya comenzó a probar el sistema con un grupo reducido de clientes de acceso anticipado.

Según reportó Fortune, una caché de datos públicamente accesible contenía borradores y activos digitales no publicados vinculados al blog de Anthropic. Entre esos materiales figuraba un texto que describía un nuevo modelo llamado Claude Mythos, al que la empresa asociaba con riesgos de ciberseguridad sin precedentes.

Un portavoz de Anthropic indicó que la compañía está desarrollando “un modelo de propósito general con avances significativos en razonamiento, programación y ciberseguridad”. También afirmó que el sistema representa “un cambio de nivel” y que es “lo más capaz que hemos construido hasta la fecha”.

La compañía añadió que el despliegue se está realizando con cautela. De acuerdo con su versión, esta fase limitada con clientes tempranos responde a una práctica habitual en la industria, especialmente cuando un modelo nuevo exhibe capacidades que podrían tener usos sensibles o de doble propósito.

Una filtración expuso borradores, nombres internos y planes de lanzamiento

La filtración surgió a partir de un problema en el sistema de gestión de contenido de Anthropic. La empresa reconoció que un “error humano” en la configuración de una herramienta externa de CMS hizo que borradores y otros materiales fueran accesibles en un almacén de datos no seguro y públicamente indexable.

De acuerdo con la revisión de especialistas citados por la fuente, el laboratorio dejó expuestos cerca de 3.000 activos vinculados al blog de Anthropic que no habían sido publicados antes en sus sitios de noticias o investigación. El material incluía imágenes, PDF, archivos de audio y otros documentos que podían encontrarse públicamente.

Después de ser alertada sobre el problema, Anthropic eliminó la capacidad del público para buscar en ese repositorio y recuperar documentos. La firma describió el contenido expuesto como “primeros borradores de contenido considerado para publicación”.

Entre los activos encontrados destacaba un borrador de entrada de blog con encabezados y fecha de publicación, lo que sugiere que formaba parte de un lanzamiento de producto ya preparado. Ese documento afirmaba que Anthropic había completado el entrenamiento de Claude Mythos, descrito allí como “con diferencia el modelo de IA más poderoso que hemos desarrollado jamás”.

El borrador también mencionaba un nuevo nivel de modelos llamado Capybara. En el texto se indicaba que “Capybara” sería un nuevo escalón, “más grande y más inteligente que nuestros modelos Opus, que eran, hasta ahora, los más potentes”. Según el propio documento, Capybara y Mythos parecen referirse al mismo modelo subyacente.

Actualmente, Anthropic comercializa sus modelos en tres tamaños principales. Las versiones más grandes y capaces se venden bajo la marca Opus, las intermedias como Sonnet y las más pequeñas como Haiku. En ese contexto, la aparición de Capybara sugiere una categoría superior a Opus, con mayor poder y también con un costo más alto de operación.

El borrador señalaba además que, frente a Claude Opus 4.6, Capybara obtiene puntuaciones “dramáticamente más altas” en pruebas de programación de software, razonamiento académico y ciberseguridad, entre otras áreas. No obstante, el documento aclaraba que el modelo todavía no estaba listo para un lanzamiento general y que resulta costoso de ejecutar.

Anthropic teme riesgos de ciberseguridad por encima de modelos previos

Más allá del avance técnico, la filtración expuso la principal preocupación de Anthropic. El documento indicaba que, al prepararse para lanzar Claude Capybara, la empresa quería actuar con “cautela adicional” para comprender los riesgos que plantea el sistema, en especial en el ámbito de la ciberseguridad.

El texto advertía que el modelo estaría “actualmente muy por delante de cualquier otro modelo de IA en capacidades cibernéticas”. También señalaba que anticipa una próxima ola de sistemas capaces de explotar vulnerabilidades de formas que podrían superar ampliamente los esfuerzos defensivos actuales.

En términos prácticos, el temor es que actores maliciosos usen estas herramientas para automatizar y escalar ataques informáticos. Por eso, según el borrador, el lanzamiento inicial se centraría en organizaciones defensivas, con el objetivo de darles una ventaja para reforzar sus bases de código frente a una posible oleada de exploits impulsados por IA.

El documento decía textualmente que Anthropic estaba liberando el modelo en acceso anticipado a organizaciones para “mejorar la robustez de sus bases de código frente a la inminente ola de exploits impulsados por IA”. Esa formulación muestra que la compañía ve el sistema tanto como una herramienta de protección como una posible fuente de abuso.

Esta tensión no es nueva en los modelos de frontera. La generación más reciente de sistemas avanzados de Anthropic y OpenAI ya había cruzado un umbral que, según ambas compañías, abre riesgos cibernéticos más serios que en iteraciones anteriores.

En febrero, cuando OpenAI presentó GPT-5.3-Codex, indicó que era el primer modelo clasificado por la empresa como de “alta capacidad” para tareas de ciberseguridad bajo su Preparedness Framework. También dijo que había sido el primero entrenado directamente para identificar vulnerabilidades de software.

Anthropic enfrentó una situación parecida con Opus 4.6, lanzado la misma semana. Según la propia compañía, ese modelo mostró capacidad para descubrir vulnerabilidades previamente desconocidas en bases de código de producción, una función de doble uso que puede servir tanto a defensores como a atacantes.

Antecedentes de abuso y una filtración que va más allá del modelo

La preocupación de Anthropic no se limita a escenarios hipotéticos. La empresa ya informó que grupos de hackers, incluidos algunos vinculados al gobierno chino, intentaron explotar Claude en ciberataques del mundo real.

En un caso documentado por la compañía, un grupo respaldado por el Estado chino había estado ejecutando una campaña coordinada usando Claude Code para infiltrarse en aproximadamente 30 organizaciones. Entre los objetivos figuraban empresas tecnológicas, instituciones financieras y organismos gubernamentales.

Anthropic indicó que, durante los 10 días siguientes a detectar la operación, investigó el alcance total del incidente, prohibió las cuentas implicadas y notificó a las organizaciones afectadas. Ese antecedente ayuda a explicar por qué el posible lanzamiento de Mythos o Capybara se está manejando con una prudencia mayor a la habitual.

La filtración, sin embargo, no solo reveló información sobre el modelo. Entre los archivos expuestos también aparecieron documentos que parecían internos o privados, más allá de materiales descartados para publicaciones anteriores del blog.

Uno de esos activos, por ejemplo, tenía un título relacionado con la “licencia parental” de un empleado. Otro documento era un PDF con detalles sobre un retiro exclusivo para directores ejecutivos de empresas europeas, un encuentro solo por invitación que se celebrará en el Reino Unido y contará con la asistencia del CEO de Anthropic, Dario Amodei.

Según el archivo filtrado, el evento de dos días se describe como una “reunión íntima” en una mansión del siglo XVIII convertida en hotel y spa en la campiña inglesa. El material señalaba que los asistentes escucharían a legisladores y responsables de políticas hablar sobre cómo las empresas están adoptando la IA y experimentarían capacidades inéditas de Claude.

Un portavoz de Anthropic dijo que el encuentro forma parte de una serie continua de eventos organizados durante el último año. Añadió que la empresa espera recibir a líderes empresariales europeos para debatir sobre el futuro de la inteligencia artificial.

En conjunto, el episodio deja dos señales relevantes para el mercado de IA. La primera es que Anthropic parece estar entrando en una nueva etapa de potencia de modelo, con un sistema que internamente considera superior a Opus. La segunda es que, en paralelo, incluso los laboratorios más avanzados siguen enfrentando riesgos operativos básicos, como la exposición accidental de datos sensibles a través de herramientas de publicación.

Para empresas, reguladores y equipos de seguridad, el caso refuerza un mensaje ya conocido en el ecosistema tecnológico. Cuanto más capaces son los modelos, mayor es la presión por equilibrar velocidad de despliegue, seguridad defensiva y control sobre información interna. En este caso, la noticia sobre el avance de Mythos llegó al público no por un anuncio oficial, sino por una falla de configuración.


ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.

Suscríbete a nuestro boletín