Por Canuto  

La startup española Multiverse Computing quiere convertir sus modelos de IA comprimidos en una alternativa real frente a la dependencia de la nube. Con una nueva app y un portal API, la empresa busca llevar modelos más pequeños, rápidos y baratos tanto a dispositivos como a clientes corporativos.

***

  • Multiverse lanzó la app CompactifAI y un portal API para ampliar el acceso a sus modelos de IA comprimidos.
  • La empresa asegura que sus modelos pueden ofrecer menores costos de cómputo, más velocidad y ventajas de privacidad al ejecutarse localmente.
  • Su expansión llega mientras crece el interés empresarial por modelos pequeños y se reporta una posible ronda de € 500.000.000.

 


Multiverse Computing, una startup española enfocada en compresión de modelos de inteligencia artificial (IA), está tratando de llevar sus desarrollos al mercado principal con una estrategia que combina software para usuarios y herramientas dirigidas a empresas.

La compañía presentó una aplicación llamada CompactifAI y, al mismo tiempo, abrió un portal API de autoservicio para que desarrolladores y compañías puedan acceder directamente a sus modelos comprimidos.

El movimiento llega en un momento en que algunas empresas tecnológicas observan con más atención los riesgos de depender por completo de infraestructura externa para ejecutar cargas de IA. Según reportó TechCrunch, la firma de capital de riesgo Lux Capital advirtió recientemente que las empresas dependientes de IA deberían dejar por escrito sus compromisos de capacidad de cómputo, en un entorno donde los impagos de compañías privadas ya superan el 9,2 %, la tasa más alta en años.

Ese contexto ayuda a explicar por qué modelos más pequeños, capaces de operar directamente en el dispositivo del usuario, comienzan a ganar atractivo. La lógica es simple: si el procesamiento puede realizarse sin centro de datos, sin proveedor de nube y sin exposición a riesgo de contraparte, ciertas aplicaciones ganan resiliencia y control operativo.

Multiverse quiere posicionarse precisamente en ese espacio. Hasta ahora había mantenido un perfil relativamente discreto frente a otros actores del sector, pero el aumento en la demanda de eficiencia dentro del mercado de IA parece estar cambiando esa situación.

CompactifAI y la promesa de una IA local

La aplicación CompactifAI funciona como una herramienta de chat de IA similar a otros asistentes conversacionales ya conocidos en el mercado. El usuario formula una pregunta y el sistema responde. La diferencia central, según la empresa, es que integra a Gilda, un modelo tan pequeño que puede ejecutarse de forma local y sin conexión.

Para el usuario final, esa capacidad representa una demostración concreta de IA en el borde. En teoría, los datos no salen del dispositivo y tampoco dependen de conectividad constante para procesarse. Esa característica puede ser relevante en ámbitos donde la privacidad o la disponibilidad operativa resultan prioritarias.

Sin embargo, la propuesta aún tiene limitaciones claras. Los teléfonos móviles necesitan contar con suficiente memoria RAM y almacenamiento para correr el modelo localmente. Si no cumplen con esas condiciones, algo que la empresa sugiere que puede ocurrir con muchos iPhone más antiguos, la app redirige las solicitudes hacia modelos basados en la nube por medio de API.

Ese enrutamiento entre procesamiento local y remoto se gestiona de forma automática mediante un sistema llamado Ash Nazg. El nombre alude a la inscripción del Anillo Único en la obra de Tolkien, pero en términos prácticos su función es decidir cuándo la consulta puede resolverse en el dispositivo y cuándo debe escalarse a infraestructura externa. Cuando eso ocurre, la app pierde parte de su principal ventaja en materia de privacidad.

La propia recepción inicial de la aplicación sugiere que todavía no se trata de un producto de consumo masivo. De acuerdo con datos de Sensor Tower citados por la fuente, CompactifAI registró menos de 5.000 descargas en el último mes.

Eso refuerza la idea de que el verdadero objetivo no es el consumidor individual, sino el mercado corporativo. La app parece operar más como vitrina tecnológica que como producto orientado a conquistar volumen entre usuarios finales.

El foco empresarial y el nuevo portal API

El paso más importante del anuncio es el lanzamiento de un portal API de autoservicio. Con esta herramienta, Multiverse busca ofrecer acceso directo a sus modelos comprimidos sin pasar por AWS Marketplace, algo que puede simplificar la evaluación e integración para equipos técnicos empresariales.

En un comunicado citado en la cobertura original, el CEO Enrique Lizaso afirmó que “la API portal de CompactifAI [ahora] brinda a los desarrolladores acceso directo a modelos comprimidos con la transparencia y el control necesarios para ejecutarlos en producción”. La frase resume el mensaje comercial que la compañía intenta transmitir: menos fricción, más visibilidad y mayor control operativo.

Una de las funciones destacadas del portal es el monitoreo de uso en tiempo real. No es un detalle menor. En el actual ciclo de inversión en IA, muchas empresas evalúan no solo la calidad de las respuestas, sino también el costo preciso de mantener flujos de inferencia a escala.

Ese punto conecta con una de las razones principales detrás del creciente interés por modelos pequeños. Más allá de posibles beneficios de privacidad o despliegue en el borde, las compañías buscan reducir el gasto de cómputo frente a los grandes modelos de lenguaje tradicionales.

También influye el hecho de que las limitaciones históricas de los modelos pequeños parecen estar disminuyendo. Esta misma semana, Mistral actualizó su familia de modelos reducidos con Mistral Small 4, que la empresa francesa describió como optimizado al mismo tiempo para chat general, codificación, tareas agénticas y razonamiento.

Además, Mistral presentó Forge, un sistema que permite a las empresas construir modelos personalizados, incluidos modelos pequeños con compensaciones ajustadas a sus propios casos de uso. Ese telón de fondo muestra que Multiverse no está sola en esta tendencia, aunque intenta diferenciarse por su tecnología de compresión.

Compresión, velocidad y presión competitiva

Multiverse sostiene que su tecnología CompactifAI, inspirada en técnicas de origen cuántico según la descripción de la empresa, puede reducir el tamaño de modelos creados por grandes laboratorios de IA. Entre los nombres mencionados figuran OpenAI, Meta, DeepSeek y Mistral AI.

Uno de los ejemplos más recientes es HyperNova 60B 2602, un modelo comprimido construido sobre gpt-oss-120b, un modelo de OpenAI cuyo código subyacente está disponible públicamente. La empresa asegura que esta versión ofrece respuestas más rápidas y a menor costo que el modelo original del cual se deriva.

Si ese desempeño se sostiene en producción, el atractivo sería evidente para flujos de trabajo de programación agéntica. En ese tipo de tareas, la IA ejecuta procesos complejos de codificación en varios pasos de manera autónoma, por lo que la velocidad y el costo por inferencia tienen impacto directo en el retorno de inversión.

La compresión útil de modelos sigue siendo, no obstante, un problema técnico difícil. Lograr que un sistema sea lo bastante pequeño para funcionar en un teléfono móvil y al mismo tiempo conserve valor práctico es una meta que incluso los mayores actores del sector han abordado con soluciones híbridas.

Apple Intelligence, por ejemplo, evitó ese cuello de botella combinando un modelo en el dispositivo con otro en la nube. CompactifAI adopta una lógica parecida, ya que también puede redirigir consultas a gpt-oss-120b a través de API cuando el hardware local no alcanza.

La diferencia, según la narrativa de Multiverse, es que su apuesta no se limita a recortar costos. La empresa intenta demostrar que los modelos locales como Gilda, y las futuras versiones que lo reemplacen, pueden habilitar nuevas aplicaciones donde la conectividad no está garantizada.

Privacidad, resiliencia y aplicaciones críticas

Ese argumento tiene relevancia especial en actividades sensibles. Para trabajadores en campos críticos, un modelo que funcione de manera local y sin conexión a la nube puede ofrecer más privacidad y también mayor resiliencia operativa.

La ventaja se vuelve más clara en entornos remotos o con infraestructura intermitente. Multiverse plantea casos de uso empresariales como la integración de IA en drones, satélites y otros sistemas donde depender de conectividad continua no siempre es viable.

Ese enfoque puede resonar en sectores industriales, energéticos y de defensa tecnológica, aunque la empresa no detalló en este anuncio despliegues específicos vinculados a esos escenarios. Lo que sí indicó es que ya atiende a más de 100 clientes globales.

Entre esos clientes aparecen nombres como el Banco de Canadá, Bosch e Iberdrola. La presencia de esas organizaciones sugiere que la startup ya logró abrirse espacio en conversaciones de alto nivel sobre eficiencia computacional y despliegue especializado de IA.

La expansión comercial, además, podría ser importante para la siguiente etapa financiera de la firma. Después de haber recaudado USD $ 215.000.000 en una ronda Serie B el año pasado, ahora circulan rumores de que estaría buscando una nueva ronda de € 500.000.000 con una valoración superior a € 1.500.000.000.

En un mercado donde el costo de infraestructura y la concentración de capacidad de cómputo se han vuelto temas estratégicos, la propuesta de Multiverse toca una preocupación real. Si los modelos comprimidos logran cerrar más la brecha con los grandes sistemas, la discusión sobre dónde correr la IA podría cambiar con rapidez.

Por ahora, la compañía española intenta convertir esa posibilidad en negocio tangible. Su app sirve como demostración pública, pero el verdadero examen estará en la adopción empresarial, en la ejecución técnica de sus modelos comprimidos y en la capacidad de convencer al mercado de que una IA más pequeña puede ser también una IA más útil.


Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público

Este artículo fue escrito por un redactor de contenido de IA

 


ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.

Suscríbete a nuestro boletín