La startup china introduce un modelo de 754.000 millones de parámetros capaz de trabajar hasta ocho horas de forma autónoma en tareas complejas.
***
- GLM-5.1 permite ejecución autónoma de hasta 8 horas en tareas técnicas.
- Supera a varios modelos occidentales en benchmarks de programación.
- Z.ai lanza el modelo bajo licencia MIT, reforzando su estrategia open source.
La carrera global por liderar la inteligencia artificial entra en una nueva etapa con el lanzamiento de GLM-5.1, el nuevo modelo desarrollado por la startup china Z.ai. La compañía, conocida por su familia de modelos GLM, presentó esta versión bajo una licencia MIT permisiva, lo que permite a empresas descargarlo, modificarlo y utilizarlo comercialmente sin restricciones significativas.
El modelo ya está disponible en plataformas como Hugging Face, consolidando la estrategia de Z.ai de impulsar el desarrollo open source como mecanismo para ampliar su adopción. Este movimiento llega poco después del lanzamiento de GLM-5 Turbo, una versión más rápida pero bajo licencia propietaria, lo que evidencia una estrategia híbrida entre apertura y monetización, indica VentureBeat.
Un cambio de paradigma: de respuestas a ejecución autónoma
GLM-5.1 no solo representa una mejora incremental, sino un cambio en la forma en que se conciben los modelos de inteligencia artificial. Mientras gran parte de la industria ha priorizado el aumento de tokens para mejorar el razonamiento, Z.ai ha enfocado sus esfuerzos en extender la duración efectiva de trabajo autónomo.
El modelo está diseñado para operar durante hasta ocho horas continuas en una misma tarea, sin intervención humana. Esto marca una transición desde el llamado “vibe coding”, donde el modelo responde instrucciones, hacia un enfoque de ingeniería agentiva, en el que el sistema ejecuta procesos completos de principio a fin.
Con una arquitectura Mixture-of-Experts de 754.000 millones de parámetros y una ventana de contexto de 202.752 tokens, GLM-5.1 busca mantener coherencia y alineación con objetivos a lo largo de miles de interacciones con herramientas externas. Según Lou, líder del proyecto, los modelos anteriores alcanzaban unos 20 pasos de ejecución, mientras que GLM-5.1 puede llegar a 1.700.
Cómo optimiza: el patrón de “escalera”
Uno de los avances más relevantes del modelo es su capacidad para evitar el llamado efecto de meseta, un problema común en sistemas de optimización donde las mejoras iniciales se estancan rápidamente.
Z.ai describe el comportamiento del modelo como un patrón de “escalera”. En lugar de mejorar de forma lineal, el sistema alterna entre periodos de ajustes incrementales y saltos estructurales que redefinen su rendimiento.
En pruebas como VectorDBBench, el modelo ejecutó 655 iteraciones y más de 6.000 llamadas a herramientas, elevando el rendimiento desde 3.547 consultas por segundo hasta 21.500. Durante este proceso, introdujo mejoras como compresión de vectores, cambios en pipelines de procesamiento y optimizaciones en memoria.
Este comportamiento sugiere que el modelo no solo ejecuta tareas, sino que también experimenta, evalúa resultados y redefine estrategias, actuando de facto como un sistema de investigación y desarrollo autónomo.
Resultados en benchmarks y desempeño técnico
El rendimiento de GLM-5.1 en benchmarks posiciona al modelo como un competidor directo de los principales sistemas occidentales. En SWE-Bench Pro, alcanzó una puntuación de 58,4, superando a GPT-5.4, Claude Opus 4.6 y Gemini 3.1 Pro en tareas relacionadas con resolución de problemas reales en repositorios de código.
En KernelBench, el modelo logró una mejora promedio de 3,6 veces en rendimiento, manteniendo progreso incluso después de más de 1.000 iteraciones. Aunque aún se sitúa por debajo del 4,2x de Claude Opus 4.6, destaca por su capacidad de sostener optimización a largo plazo.
También mostró avances relevantes en benchmarks de razonamiento y ciberseguridad, como CyberGym, MCP-Atlas y T3-Bench, además de obtener resultados destacados en pruebas matemáticas y científicas.
Uno de los ejemplos más ilustrativos fue la construcción completa de un entorno de escritorio tipo Linux en ocho horas, incluyendo múltiples aplicaciones funcionales desarrolladas y refinadas de forma autónoma.
Estrategia comercial y ecosistema
Z.ai ha posicionado GLM-5.1 como una herramienta orientada a ingeniería avanzada, más que como un chatbot generalista. Para ello, ha desarrollado un sistema de suscripción con distintos niveles de uso.
El plan Lite, con un costo de USD $27 por trimestre, está dirigido a cargas ligeras. El plan Pro, de USD $81, y el Max, de USD $216, apuntan a desarrolladores con necesidades más intensivas, ofreciendo mayor capacidad y velocidad.
En el uso vía API, el modelo tiene un costo de USD $1,40 por millón de tokens de entrada y USD $4,40 por millón de salida. También incorpora descuentos por uso en caché y un sistema de tarifas dinámicas que penaliza el uso en horas pico.
Además, el modelo puede desplegarse localmente en infraestructuras empresariales, con soporte para frameworks como vLLM y SGLang, lo que amplía su atractivo para organizaciones que requieren control total sobre su ejecución.
Open source como estrategia competitiva
El lanzamiento bajo licencia MIT refuerza la estrategia de Z.ai de construir comunidad y adopción a través del código abierto. Sin embargo, mantiene versiones más optimizadas, como GLM-5 Turbo, bajo modelos propietarios.
Este enfoque refleja una tendencia creciente en la industria, donde los laboratorios combinan modelos abiertos para atraer desarrolladores con versiones cerradas que generan ingresos.
Z.ai, que cotiza en la bolsa de Hong Kong con una capitalización de USD $52.830.000.000, busca posicionarse como el principal actor independiente en el desarrollo de modelos de lenguaje en China.
Implicaciones: la era de la IA que “trabaja sola”
El lanzamiento de GLM-5.1 sugiere que la competencia en inteligencia artificial está cambiando de eje. Ya no se trata únicamente de velocidad o precisión puntual, sino de cuánto tiempo un modelo puede trabajar de forma autónoma sin degradar su desempeño.
La posibilidad de delegar tareas durante horas transforma el ciclo de desarrollo de software y redefine la relación entre humanos y sistemas de IA. En lugar de interactuar constantemente, los usuarios pueden asignar objetivos y permitir que el modelo los ejecute.
Z.ai reconoce que aún existen desafíos, como la evaluación autónoma en tareas sin métricas claras o la necesidad de evitar óptimos locales en procesos complejos. Sin embargo, el modelo establece un precedente claro: la inteligencia artificial ya no solo responde preguntas, sino que comienza a completar proyectos completos.
Para desarrolladores y empresas, el cambio es estructural. La pregunta deja de ser qué puede hacer la IA en un momento puntual, y pasa a ser qué tareas completas puede asumir durante horas sin supervisión.
Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público
Este artículo fue escrito por un redactor de contenido de IA
ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.
Suscríbete a nuestro boletín
Artículos Relacionados
Empresas
Elon Musk intensifica demanda contra OpenAI y pide que indemnización vaya a organización sin fines de lucro
IA
Google Photos suma AI Enhance y control de velocidad para videos
Análisis de mercado
WLD sube 5,28% en rebote técnico pese a caída anual del 59%
Análisis de mercado