MentisDB presentó su versión 0.8.0 con una mejora relevante en recuperación de memoria para agentes de IA, al elevar su recall R@5 en LongMemEval de 57,2% a 65,0%. La actualización también acelera las escrituras, endurece la seguridad, incorpora embeddings locales con FastEmbed y simplifica el archivo de instrucciones que los agentes leen al iniciar.
***
- MentisDB 0.8.0 elevó el recall R@5 en LongMemEval de 57,2% a 65,0% sin cambiar el formato de almacenamiento ni romper la API.
- La latencia de append cayó 13,8% gracias a mejoras en ensamblado de registros, hashing con bincode y group commit configurable.
- La versión añade FastEmbed local, un nuevo tipo de thought llamado Goal, fusión de cadenas y varias medidas de seguridad contra abuso y DoS.
La capa de memoria persistente para agentes de IA MentisDB anunció la versión 0.8.0 como su mayor avance hasta ahora en calidad de búsqueda. La actualización se enfoca en resolver un problema central para este tipo de sistemas: recuperar la memoria correcta en el momento preciso, sin depender de la nube y sin obligar a los usuarios a rehacer su infraestructura.
De acuerdo con la documentación oficial del proyecto, la nueva versión elevó su resultado en LongMemEval, un benchmark de recuperación de memoria a largo plazo, desde 57,2% hasta 65,0% en recall R@5. En términos prácticos, eso implica que la memoria correcta aparece entre los cinco primeros resultados en cerca de dos de cada tres intentos.
Ese salto no vino acompañado de cambios disruptivos en la arquitectura. MentisDB indicó que los avances se lograron sin modificar el formato de almacenamiento, sin requerir reindexación manual y sin romper la API existente. Para equipos que operan agentes de forma continua, ese detalle puede ser tan importante como la mejora de desempeño.
La plataforma está diseñada como una base de memoria local para agentes de IA. Almacena recuerdos en un log append-only encadenado por hash y combina búsqueda léxica, semántica y de grafo. Ese posicionamiento la acerca a debates más amplios dentro del ecosistema de IA, donde la memoria persistente se ha convertido en un componente cada vez más crítico para asistentes, copilotos y flujos multiagente.
Qué cambió en la calidad de búsqueda
MentisDB atribuye la mejora principal a tres cambios técnicos. El primero fue la incorporación de Porter stemming en el tokenizador léxico. Eso significa que distintas variantes de una palabra ahora se reducen a una misma raíz antes de indexar y consultar.
El ejemplo citado por el proyecto es simple, pero ilustrativo. Términos como “prefers”, “preferred” y “preferences” pasan a mapearse a “prefer”, lo que permite que una búsqueda sobre preferencias de comida encuentre una memoria que diga “I prefer Thai cuisine”. Solo este ajuste elevó el R@5 general de 57,2% a 61,6%.
La mejora no fue homogénea, pero sí notable en categorías especialmente sensibles. El razonamiento temporal subió 9,0% y los hechos del usuario avanzaron 8,5%. Según la explicación técnica, estos son casos donde las consultas suelen usar formas de palabra distintas a la evidencia original, por lo que el stemming corrige una debilidad estructural de la búsqueda léxica.
El cambio se aplica de forma automática. Las cadenas existentes reconstruyen su índice léxico en el primer acceso después de la actualización. No se requiere configuración adicional, lo que reduce fricción operativa para quienes ya usan la herramienta en producción o pruebas.
El segundo cambio fue una nueva estrategia de fusión entre señales vectoriales y léxicas. Antes, MentisDB sumaba de manera plana las puntuaciones BM25 y vectoriales. El problema era que ambos rangos eran muy distintos: mientras la similitud vectorial se movía entre 0 y 0,35, BM25 podía superar 30.
Ese desequilibrio hacía que coincidencias solo semánticas, es decir, recuerdos relacionados en significado pero sin palabras compartidas, quedaran enterradas. La versión 0.8.0 reemplaza esa suma plana por un sistema de impulso por niveles. Si no hay coincidencia léxica, el vector recibe un impulso de 60x; si la coincidencia es débil, se escala 20x; y si es fuerte, la señal vectorial solo actúa como ajuste aditivo.
MentisDB también probó Reciprocal Rank Fusion, o RRF, una técnica estándar en búsqueda híbrida. Sin embargo, reportó que ese enfoque empeoró los resultados. Según el proyecto, en recuperación de memoria los aciertos fuertes de BM25 ya tienen mucho valor, y dar un peso equivalente a coincidencias vectoriales puede degradar la precisión en vez de mejorarla.
El tercer ajuste fue la ponderación por importancia. Los pensamientos originados por el usuario suelen registrar una importancia cercana a 0,8, mientras que las respuestas extensas del asistente rondan 0,2. Antes, ese peso se multiplicaba por 0,2, por lo que su efecto era casi marginal.
Con la nueva versión, ese multiplicador subió a 3,0. En consecuencia, un pensamiento del usuario recibe un plus aproximado de 2,4, frente a 0,6 para una respuesta del asistente. Cuando las puntuaciones BM25 están muy cerca, esa diferencia ayuda a priorizar lo que el usuario dijo realmente, en lugar de una paráfrasis del sistema.
Mejoras de rendimiento y embeddings locales
Además de la calidad de búsqueda, MentisDB reportó una caída de 13,8% en la latencia de append. La mejora fue descrita como estadísticamente significativa, con p = 0,01. Para una base de memoria orientada a registrar pensamientos y eventos en tiempo real, ese recorte puede impactar tanto la capacidad de respuesta como la escalabilidad bajo concurrencia.
El primer factor detrás de esa reducción es el ensamblado de registros sin copia. En lugar de construir una copia intermedia, los pensamientos se codifican directamente en un búfer con prefijo de longitud mediante una sola asignación. El segundo ajuste fue el uso de bincode para el hashing de pensamientos, sustituyendo la serialización JSON completa por append.
Según el proyecto, bincode resulta entre 3x y 5x más rápido para structs, lo que elimina una fuente de sobrecarga innecesaria. El tercer elemento es el group commit configurable, expuesto a través de la variable de entorno MENTISDB_GROUP_COMMIT_MS, con un valor predeterminado de 2 ms.
Ese parámetro permite ajustar la ventana de agrupación de escrituras. Un valor de 0 prioriza menor latencia, mientras que valores mayores pueden favorecer el rendimiento bajo ingestión masiva. A eso se suman una cola del escritor en segundo plano ampliada a 128 slots y búferes preasignados, pensados para reducir bloqueos por backpressure cuando múltiples agentes escriben en paralelo.
En el frente de embeddings locales, la feature flag local-embeddings ahora usa FastEmbed all-MiniLM-L6-v2, con 384 dimensiones y runtime ONNX. El proveedor anterior, local-text-v1, fue reemplazado por esta opción que corre totalmente en la máquina del usuario y no necesita GPU ni servicios en la nube.
El daemon detecta y registra FastEmbed de manera automática cuando la funcionalidad está compilada. Además, los sidecars vectoriales se reconstruyen automáticamente en el primer acceso tras actualizar. Este énfasis en ejecución local es relevante en un mercado donde muchas soluciones de memoria para IA siguen apoyándose en proveedores externos de embeddings.
Seguridad, skills y nuevas funciones
La versión 0.8.0 también endurece varias superficies de ataque. Una de las modificaciones más visibles es el nuevo wrapper SkillReadOutput. A partir de ahora, read_skill() devuelve un objeto con content, warnings y status, en vez de una cadena simple.
Ese cambio evita que los llamadores ignoren de forma silenciosa estados de revocación o advertencias de seguridad. Junto a ello, MentisDB fijó un límite de 1 MB para subida de skills, con el objetivo de impedir que cargas sin restricción agoten la memoria del servidor.
También redujo el límite de payloads de thoughts desde 10 MB, antes situado en 64 MB, para mitigar riesgos de denegación de servicio mediante blobs grandes. En paralelo, el dashboard ahora aplica rate limiting: cinco intentos fallidos de inicio de sesión por IP dentro de cinco minutos activan una respuesta HTTP 429.
Otra capa de protección llega con la comparación de PIN en tiempo constante mediante subtle::ConstantTimeEq. Este ajuste busca cerrar la puerta a ataques de temporización en el login del panel. Aunque son cambios de bajo perfil para el usuario final, revelan una orientación más madura hacia despliegues reales y exposición en entornos de red.
Uno de los aspectos más llamativos de la actualización fue la reescritura del archivo MENTISDB_SKILL.md, que contiene las instrucciones operativas que los agentes leen al iniciar. El documento pasó de 68.270 caracteres repartidos en 86 secciones a unos 8.000 caracteres, es decir, quedó cerca de ocho veces más corto.
La justificación es directa: los agentes estaban hojeando el archivo y omitiendo restricciones importantes ocultas en secciones tardías. La nueva versión pone el protocolo obligatorio de inicio al comienzo, consolida disparadores de escritura en una sola tabla, enumera los 30 tipos de thoughts, añade reglas de referencia inversa y orquestación de subagentes, y sustituye antipatrones en prosa por viñetas más concisas.
En esa lista ampliada aparece el nuevo tipo de thought Goal. MentisDB lo define como una forma de capturar objetivos de alto nivel, más amplia que Plan, que describe cómo, y que Subgoal, que representa un componente. La intención es que futuras sesiones puedan orientarse rápido hacia lo que el agente trataba de lograr, incluso si los detalles del plan cambiaron.
La actualización añade además la fusión de cadenas. El nuevo endpoint REST POST /v1/chains/merge y la herramienta MCP mentisdb_merge_chains permiten mover todos los thoughts de una cadena origen a una cadena destino y después eliminar la cadena original. Las identidades de agentes se remapean automáticamente mediante coincidencia por similitud.
Entre otras mejoras, MentisDB corrigió el puente de Claude Desktop para usar la ruta explícita de node y evitar problemas de shebang en sistemas con múltiples versiones. El requisito mínimo es Node ≥ 20 y se valida durante la configuración. También eliminó el almacenamiento JSONL para nuevas cadenas, aunque las existentes siguen siendo legibles para migración.
La versión incorpora ManagedSidecarEntry con auto_sync para registrar sidecars vectoriales solo para búsqueda, evitando el costo ONNX por append durante ingestión masiva. Además, MIN_VECTOR_COSINE se redujo de 0,12 a 0,06 para capturar más coincidencias semánticas de evidencia corta, y el código base se limpió con la extracción de PlatformPaths, el trait HasOptionalQueryFields y el helper read_length_prefixed_thoughts, eliminando cerca de 260 líneas duplicadas.
Según la documentación publicada por MentisDB, la actualización puede instalarse con cargo install mentisdb o desde el código fuente mediante git pull y cargo install –path . –locked. Las cadenas existentes, sidecars vectoriales y registros de skills se migran automáticamente en el primer arranque, sin pasos manuales.
De cara al futuro, el proyecto identifica como reto más claro las consultas de preferencias de una sola sesión, donde el R@5 sigue en 13,3%. Ese tipo de pregunta exige conectar evidencia implícita, como “I’ve been really into Thai cuisine lately”, con consultas explícitas del tipo “What kind of food do I like?”. MentisDB considera que mejores embeddings o un paso de reranking serían las vías más probables para seguir avanzando.
El recall multi-sesión, situado en 59,4%, también deja espacio para mejoras. La expansión de grafo, según la propia evaluación del proyecto, aporta 0,0 en los fallos actuales, ya que logra encontrar thoughts relacionados, pero no la evidencia específica que queda enterrada en conversaciones largas. En un campo donde la memoria fiable puede definir la utilidad real de un agente, ese diagnóstico muestra que el problema aún está lejos de resolverse por completo.
Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público.
Este artículo fue escrito por un redactor de contenido de IA y revisado por un editor humano para garantizar calidad y precisión.
ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.
Suscríbete a nuestro boletín
Artículos Relacionados
Adopción
Trabajadores de oficina rechazan la IA corporativa pese a inversiones récord
Bitcoin
Bitcoin recibe su primer prototipo para rescatar billeteras ante una amenaza cuántica
Noticias
Adobe Reader ha estado bajo ataque de día cero en PDF desde diciembre
Empresas