Por Canuto  

Un nuevo análisis competitivo dentro del creciente mercado de memoria para agentes de IA pone a MentisDB frente a nombres como Mem0, Graphiti, Letta, Neo4j y Cognee. La comparación revela una apuesta técnica poco común: funcionamiento local, sin LLM en el núcleo, almacenamiento embebido en Rust e integridad criptográfica verificable.
***

  • MentisDB se posiciona como una capa de memoria agéntica local-first, sin dependencias externas y con cadena hash append-only.
  • El análisis lo compara con cinco proyectos relevantes: Mem0, Graphiti/Zep, Letta, Neo4j LLM Graph Builder y Cognee.
  • La hoja de ruta hacia la versión 1.0 incluye memoria temporal, deduplicación, ontologías personalizadas, CLI y mejoras de recuperación.


La memoria para agentes de inteligencia artificial se ha convertido en una de las capas más disputadas del stack de IA durante 2025 y 2026. A medida que más desarrolladores intentan construir asistentes persistentes, automatizaciones complejas y sistemas multiagente, el problema ya no es solo generar respuestas, sino recordar hechos, contexto y relaciones con suficiente precisión como para que el comportamiento del agente sea útil a largo plazo.

En ese contexto, MentisDB publicó el 10 de abril de 2026 un análisis competitivo en el que compara su propuesta frente a cinco proyectos destacados del sector: Mem0, Graphiti o Zep, Letta o MemGPT, Neo4j LLM Graph Builder y Cognee. El texto no solo busca diferenciar a MentisDB, sino también identificar con franqueza qué funciones le faltan y qué prioridades deberían guiar su evolución hasta la versión 1.0.

El diagnóstico parte de una clasificación simple del mercado. Por un lado están las capas de memoria, como Mem0 y MentisDB, centradas en almacenar y recuperar hechos sobre usuarios y conversaciones. Por otro, los motores de grafos de conocimiento, como Graphiti, Neo4j KB y Cognee, que construyen estructuras más formales a partir de datos no estructurados. Y en una tercera categoría aparecen los frameworks de agentes, como Letta, que abarcan el ciclo completo del agente, incluida la memoria.

Según el análisis, MentisDB ocupa la primera categoría, pero adopta rasgos de la segunda. Integra un grafo de conocimiento y una recuperación híbrida basada en BM25, búsqueda vectorial y relaciones de grafo. Al mismo tiempo, evita dos dependencias que hoy son comunes en este tipo de herramientas: un LLM para el funcionamiento central y una base de datos externa para almacenar la información.

Qué distingue a MentisDB dentro del mercado

La comparación técnica destaca cinco rasgos que, según el documento, ningún rival combina al mismo tiempo. El primero es una cadena hash append-only, donde cada pensamiento queda enlazado criptográficamente al anterior. Si una memoria es alterada, la cadena se rompe. La idea apunta a trazabilidad, auditoría y cumplimiento, especialmente en entornos donde importa demostrar que el historial no fue manipulado.

El segundo rasgo es el almacenamiento embebido. MentisDB funciona con sled, una base de datos embebida escrita en Rust, lo que evita desplegar Neo4j, Qdrant, Postgres u otros servicios auxiliares. La propuesta, resumida por el propio proyecto como “cargo add mentisdb”, intenta reducir fricción operativa y facilitar instalaciones locales o sensibles a la infraestructura.

La tercera diferencia es la ausencia de dependencia de LLM para el núcleo del sistema. Mientras Mem0, Graphiti, Cognee y Neo4j KB requieren una clave de API de modelo para tareas centrales de ingestión, extracción o resumen, MentisDB afirma poder ingerir, indexar y recuperar memorias sin conectarse a proveedores externos. Ese punto es especialmente relevante para despliegues offline, redes aisladas o equipos con restricciones de costo.

El cuarto factor es el lenguaje. El documento subraya que todos los competidores revisados están desarrollados en Python, mientras MentisDB fue construido en Rust. La tesis del proyecto es que eso puede traducirse en un rendimiento entre 10 y 100 veces superior, junto con mayor seguridad de memoria y un despliegue más simple mediante un binario estático, sin runtimes adicionales, GIL ni entornos virtuales.

El quinto elemento es la identidad de agente. MentisDB incorpora un registro de agentes con alias, claves públicas y estados de ciclo de vida. Además, los pensamientos almacenan los identificadores de los agentes que los produjeron. Esto habilita trazas de auditoría multiagente, una función que el análisis presenta como poco común en los sistemas comparados.

Cómo queda frente a Mem0, Graphiti, Letta, Neo4j y Cognee

En la tabla comparativa, Mem0 aparece como la capa de memoria más popular del grupo, con más de 52.000 estrellas en GitHub. Su fortaleza estaría en el ecosistema, con extensión de navegador, integraciones con LangChain y CrewAI, además de una CLI pulida. Sin embargo, MentisDB argumenta que Mem0 depende de un LLM para operar y que empuja con fuerza a los usuarios hacia su plataforma alojada.

Graphiti y Zep son señalados como referentes en grafos de conocimiento temporales. El análisis reconoce que Graphiti posee la mejor gestión temporal del sector, gracias a campos como valid_at e invalid_at en las relaciones. Eso permite reconstruir qué era cierto en un momento concreto, una capacidad valiosa para sistemas donde los hechos cambian con el tiempo. La contrapartida, según MentisDB, es la necesidad de una base de datos como Neo4j, FalkorDB, Kuzu o Neptune.

Frente a Letta o MemGPT, la comparación insiste en una diferencia de enfoque. Letta no se presenta como una simple capa de memoria, sino como un framework completo de agentes. Gestiona bloques de memoria, herramientas, bucles de ejecución y mecanismos de auto-mejora. Por eso, MentisDB intenta ubicarse como una pieza más modular, capaz de integrarse con cualquier framework en lugar de obligar al desarrollador a adoptar una pila cerrada.

El caso de Neo4j LLM Graph Builder también se separa por uso. La herramienta de Neo4j, de acuerdo con el análisis, está orientada a convertir documentos como PDF en grafos de conocimiento a través de un LLM. MentisDB, en cambio, se describe como una memoria de tiempo de ejecución, pensada para que los agentes escriban y consulten datos en tiempo real. No compiten exactamente por el mismo flujo de trabajo, aunque sí se cruzan en capacidades de representación del conocimiento.

Cognee completa la lista como un motor de conocimiento que mezcla búsqueda vectorial, grafos y enfoques inspirados en ciencia cognitiva. No obstante, el documento remarca que depende de bases de datos externas y de un LLM para su pipeline llamado cognify. En esa línea, MentisDB insiste en su principal argumento estratégico: ser autocontenido y utilizable sin servicios de terceros.

Las carencias que MentisDB reconoce abiertamente

Uno de los puntos más llamativos del análisis es que no se limita al marketing. El texto enumera funciones donde los rivales hoy ofrecen algo mejor. La primera es la gestión temporal de hechos. El ejemplo dado es simple: si un sistema almacena que “Kendra trabaja en Acme” y luego Kendra cambia de empleo, debería poder marcar el dato anterior como inválido sin perder historial.

Para cubrir ese hueco, MentisDB propone añadir campos valid_at e invalid_at a ThoughtRelation. Cuando se cree una relación de reemplazo o corrección, la arista anterior quedaría invalidada automáticamente. También planea incorporar un parámetro de consulta as_of=<timestamp> para filtrar relaciones válidas en un momento concreto. La ventaja, según el proyecto, es que puede implementarse de forma estructural, sin exigir un LLM.

La segunda brecha es la deduplicación de memoria, donde Mem0 aparece como referencia. Sin un mecanismo para detectar duplicados o contradicciones cercanas, una misma idea repetida varias veces puede contaminar resultados de búsqueda y elevar artificialmente ciertos puntajes. La propuesta de MentisDB es verificar el solapamiento léxico durante el proceso de append() y, si la similitud supera 0,85, crear una relación Supersedes en lugar de insertar un nuevo duplicado.

Otra carencia reconocida es la falta de alcances de memoria multinivel, como los niveles de usuario, sesión o agente. Aunque MentisDB ya ofrece aislamiento físico mediante claves de cadena, todavía no cuenta con una forma semántica clara de distinguir una preferencia duradera del usuario de un contexto temporal de sesión. La idea es incorporar etiquetas de alcance y filtros de búsqueda asociados.

El proyecto también admite que le faltan ontologías personalizadas y procedencia de episodios. Las primeras permitirían declarar tipos específicos como Person, Product o Policy, algo útil en aplicaciones verticales. La segunda ayudaría a rastrear qué conversación o fuente originó un hecho derivado. En ese frente, MentisDB planea sumar un campo source_episode y relaciones del tipo DerivedFrom.

La hoja de ruta hacia la versión 1.0

La ruta de producto publicada por MentisDB organiza las prioridades por versiones. En la 0.8.2, el foco estará en validez temporal de aristas, deduplicación o fusión de memoria, alcances multinivel y una herramienta CLI. La 0.8.3 apuntará a calidad de recuperación, con reranking ligero, expansión de lemas de verbos irregulares y un corte DF BM25 por campo.

Más adelante, la versión 0.8.4 se centrará en ontología y procedencia, con tipos personalizados de entidad y relación, además de seguimiento de episodios. La 0.9.0 buscará fortalecer el ecosistema mediante consultas entre cadenas, memorias extraídas opcionalmente por LLM, integración con LangChain y webhooks.

Finalmente, la 1.0.0 se plantea como una edición estable para producción. Allí el proyecto aspira a sumar extensión de navegador, primitivas de agentes auto-mejorables, seguimiento de tokens y estabilidad de API. Esa secuencia revela una intención clara: acercarse a la madurez funcional de rivales más consolidados, sin renunciar a la filosofía local-first y al núcleo libre de dependencias externas.

El propio análisis admite que, si hoy un equipo necesita usar un LLM para extraer hechos de conversaciones de forma inmediata, Mem0 o Graphiti pueden ser opciones más pragmáticas. Aun así, MentisDB sostiene que su objetivo es cerrar esa brecha sin comprometer lo que considera sus principios diferenciadores: verificabilidad criptográfica, despliegue offline, rendimiento y control total sobre la memoria del agente.

En un mercado donde gran parte de la infraestructura de IA se apoya en Python, servicios administrados y llamadas constantes a modelos externos, la apuesta de MentisDB parece ir a contracorriente. Justamente por eso, su propuesta puede resultar atractiva para desarrolladores y empresas que priorizan auditabilidad, operación local y menor dependencia de proveedores. El debate, en el fondo, no es solo técnico. También trata sobre qué tan confiable, portable y soberana debería ser la memoria de los agentes que empezarán a tomar decisiones en sistemas reales.


Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público.

Este artículo fue escrito por un redactor de contenido de IA y revisado por un editor humano para garantizar calidad y precisión.


ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.

Suscríbete a nuestro boletín