Por Canuto  

PrismML anunció Ternary Bonsai, una nueva familia de modelos de lenguaje de 1,58 bits diseñada para combinar restricciones severas de memoria con niveles de precisión más altos. La propuesta busca ampliar la frontera de eficiencia en IA con variantes de 8B, 4B y 1,7B parámetros, capaces de correr de forma nativa en dispositivos Apple.
***

  • PrismML presentó Ternary Bonsai en versiones de 8B, 4B y 1,7B parámetros con pesos ternarios {-1, 0, +1}.
  • El modelo 8B alcanza una media de 75,5 en benchmarks con una huella de apenas 1,75 GB, frente a 70,5 del Bonsai 8B de 1 bit.
  • La empresa afirma que la familia ofrece hasta 5 veces más throughput que modelos 8B de 16 bits y entre 3 y 4 veces mejor eficiencia energética.


PrismML presentó Ternary Bonsai, una nueva familia de modelos de lenguaje de 1,58 bits orientada a equilibrar restricciones estrictas de memoria con exigencias elevadas de precisión. El anuncio, realizado el 16 de abril de 2026, amplía la línea Bonsai que la empresa venía desarrollando en torno a modelos de compresión extrema.

Para entender la relevancia del lanzamiento conviene partir de una idea básica. En inteligencia artificial, los modelos suelen requerir grandes cantidades de memoria y energía, lo que limita su despliegue en laptops, teléfonos y otros dispositivos de borde. PrismML busca atacar ese problema reduciendo radicalmente la representación de los pesos sin abandonar del todo la capacidad de razonamiento.

La firma explicó que su familia anterior de modelos Bonsai de 1 bit ya había demostrado que una compresión extrema podía producir sistemas comercialmente útiles. Ternary Bonsai apunta ahora a otro punto de esa curva, con un aumento moderado de tamaño que, según la empresa, se traduce en una mejora importante de rendimiento.

Los nuevos modelos estarán disponibles en tres tamaños: 8B, 4B y 1,7B parámetros. Al emplear pesos ternarios, la compañía asegura una huella de memoria aproximadamente 9 veces menor que la de modelos estándar de 16 bits, al tiempo que supera a la mayoría de sus pares dentro de sus respectivas clases de parámetros en benchmarks ampliamente usados.

Qué hace distinto a Ternary Bonsai

La principal novedad técnica es que Ternary Bonsai usa una representación de 1,58 bits en toda la arquitectura de red. PrismML subraya que no hay componentes que recurran a rutas de mayor precisión para sostener el desempeño, un detalle importante porque muchas propuestas comprimidas conservan partes críticas en formatos más pesados.

Según la descripción de la empresa, embeddings, capas de atención, MLP y la cabeza LM utilizan la misma representación de 1,58 bits. Esa consistencia convierte al modelo en un sistema ternario integral y no en una aproximación parcial con distintos niveles de cuantización mezclados dentro de la arquitectura.

El esquema se apoya en una cuantización por grupos. Cada peso queda restringido a uno de tres valores: {-s, 0, +s}. Estos tres estados se codifican como (-1, 0, +1) usando 1,58 bits por peso, junto con un factor de escala compartido en FP16, identificado como s, para cada grupo de 128 pesos.

En la práctica, la propuesta intenta sostener dos objetivos que suelen entrar en conflicto. Por un lado, reducir la memoria al mínimo. Por el otro, conservar suficiente capacidad para tareas de razonamiento, programación, evaluación de instrucciones y resolución de problemas matemáticos básicos. Esa tensión es justamente la que define la competencia actual entre modelos grandes y versiones compactas para despliegue local.

Resultados frente a la familia de 1 bit y otros rivales

PrismML destacó que Ternary Bonsai 8B mejora en 5 puntos el promedio de benchmarks respecto a Bonsai 8B de 1 bit. El nuevo modelo logra una puntuación media de 75,5 con una huella de 1,75 GB, frente a 70,5 del modelo previo, que ocupa 1,15 GB. La diferencia de memoria entre ambos es de solo 600 MB.

La empresa sostiene que, dentro de su categoría, Ternary Bonsai 8B solo queda por detrás de Qwen3 8B, cuyo tamaño informado es de 16,38 GB. También afirma que supera a los demás modelos comparables, a pesar de ser entre 9 y 10 veces más pequeño que ellos en términos de huella de memoria.

El desempeño, de acuerdo con PrismML, no estaría concentrado en una sola prueba. El modelo publicó resultados competitivos en MMLU Redux, MuSR, GSM8K, HumanEval+, IFEval y BFCLv3, un conjunto de benchmarks que cubre conocimiento general, razonamiento, programación y seguimiento de instrucciones.

Otro dato que la compañía resaltó es la llamada densidad de inteligencia por GB. Bajo esa métrica, Ternary Bonsai seguiría superando de forma significativa a otros modelos de clases de parámetros parecidas. Esa clase de indicador apunta a medir cuánto rendimiento útil entrega un sistema por cada unidad de memoria consumida, un criterio cada vez más importante para aplicaciones locales y empresariales.

La nueva frontera de eficiencia y el lugar de los modelos de 1 bit

PrismML enmarcó el lanzamiento como una extensión de la frontera de Pareto que sus modelos Bonsai de 1 bit habían establecido antes. En términos simples, la frontera de Pareto describe combinaciones óptimas entre dos variables que compiten entre sí, en este caso capacidad del modelo y tamaño final.

Según la empresa, los modelos de 1 bit habían marcado una referencia nueva en esa relación entre rendimiento y huella. Ternary Bonsai desplaza esa frontera todavía más hacia la izquierda, es decir, ofrece más capacidad útil sin exigir un salto proporcional en memoria.

La compañía insistió en que el lanzamiento no reemplaza a Bonsai de 1 bit. Más bien lo complementa. En situaciones donde la prioridad absoluta sea usar la menor huella posible, los modelos de 1 bit seguirían siendo la mejor opción. En cambio, cuando un aumento pequeño de memoria pueda justificarse por una mejora significativa de calidad, Ternary Bonsai sería la alternativa adecuada.

Las versiones de 1,7B, 4B y 8B responden precisamente a esa lógica. PrismML plantea que estas variantes extienden el compromiso entre memoria, throughput y calidad del modelo a distintos niveles de despliegue. Para desarrolladores y empresas, eso implica más flexibilidad al momento de asignar recursos en función del hardware disponible y del caso de uso.

Velocidad, consumo de energía y despliegue en Apple

Más allá de los benchmarks, PrismML publicó datos prácticos sobre throughput y eficiencia energética. En un M4 Pro, Ternary Bonsai 8B alcanza 82 tokens por segundo. La empresa asegura que eso equivale a cerca de 5 veces la velocidad de un modelo 8B de 16 bits.

En iPhone 17 Pro Max, el mismo modelo opera a 27 tokens por segundo. Este dato es relevante porque muestra que la propuesta no se limita a correr en estaciones de trabajo o servidores pequeños, sino que también apunta a ejecución local en hardware móvil de consumo.

En materia energética, PrismML afirmó que Ternary Bonsai usa bastante menos energía que sus equivalentes de precisión completa de 16 bits. El rango de mejora reportado es de entre 3 y 4 veces mejor eficiencia energética, una ventaja especialmente valiosa para dispositivos portátiles y cargas operativas persistentes.

Las cifras compartidas por la empresa ubican el consumo de Ternary Bonsai 8B en 0,105 mWh por token sobre M4 Pro y en 0,132 mWh por token sobre iPhone 17 Pro Max. En un contexto donde la discusión sobre IA suele girar en torno a centros de datos y gasto eléctrico, estos resultados apuntan a otro frente competitivo: modelos suficientemente capaces para correr cerca del usuario final.

Licencia, acceso y contexto empresarial

La cobertura de plataforma incluye ejecución nativa en dispositivos Apple, como Mac, iPhone y iPad, a través de MLX. PrismML indicó además que los pesos del modelo ya están disponibles bajo licencia Apache 2.0, una decisión que facilita la experimentación y el desarrollo por parte de terceros.

La empresa señaló que los detalles técnicos completos de sus procesos de entrenamiento, evaluación y benchmarking se encuentran en su whitepaper. Esa documentación será clave para que la comunidad pueda contrastar con mayor precisión los resultados reportados y entender mejor los compromisos detrás del diseño ternario.

De acuerdo con la información publicada por PrismML — Introducing Ternary Bonsai: Top Intelligence at 1.58 Bits, la compañía surgió de un equipo de investigadores de Caltech y fue fundada con apoyo de Khosla Ventures, Cerberus y Google. La firma afirma haber dedicado años a uno de los desafíos más complejos del sector: comprimir redes neuronales sin sacrificar su capacidad de razonamiento.

En ese marco, Ternary Bonsai se presenta como un intento de llevar modelos de lenguaje más capaces a dispositivos con límites reales de memoria y energía. Si la promesa se sostiene fuera de los benchmarks internos, la propuesta podría reforzar una tendencia importante para la industria de IA: menos dependencia de hardware masivo y más inferencia útil en equipos personales.


Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público.

Este artículo fue escrito por un redactor de contenido de IA y revisado por un editor humano para garantizar calidad y precisión.


ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.

Suscríbete a nuestro boletín