Por Canuto  

Xiaomi anunció el lanzamiento y la apertura del código de MiMo-V2.5-Pro, su modelo de inteligencia artificial más capaz hasta ahora. La empresa asegura que el sistema mejora en tareas agénticas, programación compleja y trabajos de largo horizonte, mientras mantiene el mismo precio en su plataforma API y presume una mayor eficiencia en uso de tokens frente a rivales de primera línea.
***

  • Xiaomi presentó MiMo-V2.5-Pro, un modelo Mixture-of-Experts de 1,02T parámetros con 42B activos y contexto de 1M tokens.
  • La compañía afirma que el sistema completó tareas complejas como un compilador SysY en Rust, un editor de video y una optimización analógica FVF-LDO.
  • El modelo fue liberado como open-source bajo licencia permisiva y ya está desplegado en la API, AI Studio y otras superficies sin cambios de precio.


Xiaomi anunció el 27 de abril de 2026 el lanzamiento y la apertura del código de MiMo-V2.5-Pro, al que describe como su modelo más capaz hasta la fecha. Según explicó la empresa en MiMo-V2.5-Pro | Xiaomi, la nueva versión mejora frente a MiMo-V2-Pro en capacidades agénticas generales, ingeniería de software compleja y tareas de largo horizonte.

La compañía detalló que MiMo-V2.5-Pro es un modelo Mixture-of-Experts con 1,02T parámetros totales y 42B parámetros activos. También indicó que fue construido sobre una arquitectura de atención híbrida y que ofrece una ventana de contexto de 1M tokens, un dato clave para cargas de trabajo extensas donde el modelo debe sostener coherencia durante largos periodos.

En términos prácticos, Xiaomi sostiene que el sistema alcanzó un nuevo nivel de inteligencia en pruebas internas. La empresa incluso señaló que ese rendimiento llevó a sus propios investigadores a replantearse la forma de trabajar con el modelo, especialmente cuando se combina con un harness adecuado para coordinar herramientas, memoria y contexto.

MiMo-V2.5-Pro ya está desplegado por completo en la Plataforma API de Xiaomi, en AI Studio y en otras superficies de acceso. La firma aseguró que no hubo cambios en el precio y que basta con sustituir la etiqueta del modelo por mimo-v2.5-pro para comenzar a usarlo.

Un modelo orientado a tareas más difíciles

Para entender la relevancia de este anuncio, conviene recordar que la IA agéntica se refiere a sistemas capaces de planificar, usar herramientas externas, corregirse y mantener objetivos durante secuencias largas de pasos. Ese enfoque es especialmente relevante en programación, automatización empresarial y diseño técnico, donde no basta con responder una sola pregunta, sino que se requiere ejecutar procesos enteros.

Xiaomi afirmó que puso a MiMo-V2.5-Pro frente a tareas que a expertos humanos les tomarían días o semanas. En lugar de probarlo solo con benchmarks breves, la empresa dejó al modelo trabajar de forma autónoma por horas, con múltiples llamadas a herramientas y ciclos de verificación.

Uno de los ejemplos centrales fue la implementación desde cero de un compilador SysY completo en Rust. La tarea proviene del proyecto del curso Compiler Principles de la Universidad de Pekín y exige construir lexer, parser, AST, generación de código Koopa IR, backend de ensamblado RISC-V y optimización de rendimiento.

De acuerdo con Xiaomi, el proyecto de referencia suele requerir varias semanas para un estudiante de informática de la Universidad de Pekín. MiMo-V2.5-Pro, en cambio, lo completó en 4,3 horas a lo largo de 672 llamadas a herramientas, logrando una puntuación perfecta de 233 sobre 233 en el conjunto oculto de pruebas del curso.

La empresa añadió que el modelo no avanzó mediante simple ensayo y error. Según su descripción, primero estructuró toda la canalización, después afinó Koopa IR con 110 sobre 110, continuó con el backend RISC-V con 103 sobre 103 y finalmente resolvió la optimización de rendimiento con 20 sobre 20.

Xiaomi también destacó un dato llamativo del arranque en frío. La primera compilación habría superado 137 de 233 pruebas, lo que equivale a 59%, una señal que la firma interpreta como evidencia de que la arquitectura general se diseñó correctamente antes de ejecutar una sola batería de test completa.

Otro detalle compartido por la empresa fue una caída parcial durante el proceso. En el turno 512, una pasada de refactorización hizo retroceder dos pruebas de lv9/riscv, pero el modelo habría diagnosticado los fallos, se recuperó y siguió avanzando. Xiaomi presentó ese episodio como un ejemplo de disciplina estructurada y autocorrectiva en trabajos de largo horizonte.

Editor de video y diseño analógico entre las pruebas destacadas

La compañía también mostró un segundo caso de uso centrado en software de usuario final. Con unas pocas instrucciones simples, MiMo-V2.5-Pro entregó una aplicación de escritorio funcional para edición de video, incluyendo línea de tiempo multipista, recorte de clips, transiciones cross-fade, mezcla de audio y canalización de exportación.

Según Xiaomi, la compilación final de ese editor sumó 8.192 líneas de código. El trabajo se produjo a lo largo de 1.868 llamadas a herramientas en 11,5 horas de labor autónoma, una cifra que apunta al tipo de persistencia operativa que la compañía quiere asociar con el modelo.

La demostración presentada por la empresa incluyó además una voz en off de IA impulsada por MiMo-V2-TTS. Aunque Xiaomi no ofreció métricas comparativas externas para ese caso concreto, sí lo utilizó como evidencia de la capacidad del modelo para construir aplicaciones completas de extremo a extremo.

El tercer ejemplo se aleja del desarrollo de software tradicional y entra en automatización científica. Xiaomi conectó a MiMo-V2.5-Pro a una tarea de EDA analógico de nivel de posgrado para diseñar y optimizar desde cero un FVF-LDO, es decir, un regulador low-dropout de tipo Flipped-Voltage-Follower, usando el proceso CMOS de 180 nm de TSMC.

En esa prueba, el modelo debía dimensionar el transistor de potencia, ajustar la red de compensación y seleccionar tensiones de polarización para cumplir al mismo tiempo seis métricas: margen de fase, regulación de línea, regulación de carga, corriente quiescente, PSRR y respuesta transitoria.

Xiaomi explicó que un diseñador analógico entrenado suele dedicar varios días a un proyecto de ese alcance. En su experimento, MiMo-V2.5-Pro trabajó dentro de un bucle de simulación ngspice con Claude Code como harness y, en aproximadamente una hora de iteración en bucle cerrado, produjo un diseño que cumplió todas las métricas objetivo.

La empresa agregó que cuatro de las métricas mostradas mejoraron en un orden de magnitud respecto al intento inicial del propio modelo. A partir de estos ejercicios, Xiaomi concluye que V2.5-Pro exhibe una fuerte “conciencia del harness”, aprovechando el entorno, gestionando memoria y moldeando su propio contexto con el objetivo final en mente.

Programación de frontera, eficiencia y despliegue open-source

Más allá de los ejemplos individuales, Xiaomi asegura que también elevó la inteligencia de programación del sistema mediante un mayor escalado del cómputo de post-entrenamiento. Para medirlo, la empresa usa MiMo Coding Bench, un conjunto interno de evaluación orientado a tareas de programación diversas dentro de marcos agénticos como Claude Code.

Ese benchmark interno cubre comprensión de repositorios, construcción de proyectos, revisión de código, generación estructurada de artefactos, planificación, SWE y otros trabajos reales de desarrollo. Xiaomi afirma que MiMo-V2.5-Pro mejora la experiencia del usuario en escenarios concretos y que reduce la brecha con Opus 4.6 en su gráfico comparativo.

Otro eje importante del anuncio es la eficiencia de tokens. Xiaomi sostuvo que una mayor inteligencia no solo debe medirse por las puntuaciones, sino por la capacidad de alcanzarlas con menos gasto computacional, algo especialmente relevante para empresas que evalúan costos de inferencia a gran escala.

En ClawEval, MiMo-V2.5-Pro alcanzó 64% de Pass^3 usando cerca de 70.000 tokens por trayectoria. La firma aseguró que eso representa aproximadamente entre 40% y 60% menos tokens que Claude Opus 4.6, Gemini 3.1 Pro y GPT-5.4 en niveles de capacidad comparables.

Junto con el modelo, Xiaomi informó mejoras en su infraestructura de inferencia y en el Token Plan. La empresa indicó que todos los usuarios que compraron un Token Plan antes de las 14:00 UTC del 21 de abril verán restablecido su saldo de Credit usado.

En el plano de apertura, MiMo-V2.5-Pro fue liberado como open-source bajo una licencia permisiva. Xiaomi dijo que los pesos, el tokenizador y la model card completa están disponibles en Hugging Face, una decisión que podría aumentar el interés de desarrolladores que buscan modelos avanzados con posibilidad de despliegue propio.

La compañía publicó además dos variantes principales. MiMo-V2.5-Pro-Base mantiene 1,02T parámetros, 42B activos, contexto de 256K y precisión FP8 de tipo E4M3 Mixed. MiMo-V2.5-Pro conserva 1,02T parámetros, 42B activos, amplía el contexto a 1M y usa la misma precisión FP8 E4M3 Mixed.

En cuanto a arquitectura y entrenamiento, Xiaomi detalló que V2.5-Pro hereda el diseño de atención híbrida y Multi-Token Prediction de MiMo-V2-Flash. Local Sliding Window Attention y Global Attention se intercalan en una proporción de 6:1 con una ventana de 128 tokens, lo que reduce el almacenamiento de KV-cache casi 7 veces en contexto largo, mientras un sesgo aprendible de attention-sink busca preservar el rendimiento.

La empresa añadió que el módulo MTP ligero con FFNs densas está integrado de forma nativa para entrenamiento e inferencia, con el objetivo de triplicar aproximadamente el rendimiento de salida y acelerar los rollouts de RL. El preentrenamiento se ejecutó sobre 27T tokens usando precisión mixta FP8 con una longitud de secuencia nativa de 32K, luego extendida a 1M tokens.

Finalmente, Xiaomi describió un postentrenamiento en tres etapas: Supervised Fine-Tuning para el seguimiento básico de instrucciones, Domain-Specialized Training con modelos teacher optimizados por dominio mediante RL, y Multi-Teacher On-Policy Distillation, donde un modelo student aprende a partir de sus propios rollouts guiado a nivel de token por especialistas. Con ello, la firma busca posicionar a MiMo-V2.5-Pro como una opción de inteligencia de primer nivel, abierta y de menor costo para su integración en scaffolds como Claude Code, OpenCode y Kilo.


ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.

Suscríbete a nuestro boletín