Por Canuto  

En un momento en que los agentes de IA se vuelven “mainstream”, el autor Nate B Jones plantea que el verdadero cuello de botella ya no es el modelo, sino la memoria: un sistema propio, semántico y legible por agentes que unifique el contexto entre herramientas y evite el lock-in.
***

  • Propone “open brain”: una arquitectura de memoria “agent readable” basada en Postgres, embeddings vectoriales y un servidor MCP para que cualquier IA consulte el mismo contexto.
  • Critica la memoria aislada: las funciones de memoria en plataformas como Claude, ChatGPT y otras no se comparten entre sí y refuerzan el encierro del usuario.
  • Apuesta por bajo costo y no-code: describe un montaje de unos 45 minutos, con captura desde apps como Slack y un costo estimado de USD $0,10 a USD $0,30 al mes.

 


La adopción de agentes de inteligencia artificial está empujando un debate que hasta hace poco parecía secundario: la memoria. En el video “You Don’t Need SaaS. The $0.10 System That Replaced My AI Workflow (45 Min No-Code Build)”, el autor Nate B Jones sostiene que muchos agentes “no tienen cerebro” porque carecen de un sistema confiable para leer, mantener y usar el contexto que una persona acumula durante meses o años.

Su tesis es directa: la calidad de lo que produce la IA depende de la capacidad de especificar, y esa capacidad se sostiene sobre infraestructura de contexto. Sin una memoria persistente, cada conversación vuelve a empezar desde cero, y gran parte del trabajo termina siendo “transferencia de contexto” en lugar de ejecución real. Para Jones, ese problema se vuelve crítico cuando se incorporan agentes autónomos que requieren acceder a recuerdos relevantes de forma segura.

El planteamiento también toca una dimensión de mercado. A medida que las plataformas añaden “memoria” como funcionalidad, la usan como estrategia de producto para generar dependencia. Jones argumenta que el conocimiento personal no debería ser rehén de un proveedor, y propone un diseño alternativo que busca ser futuro, interoperable y controlado por el usuario.

El “problema de memoria” detrás del prompting y la productividad

Jones enmarca la discusión en el avance de las prácticas de prompting. Describe una jerarquía que va desde “prompt craft” hacia “context engineering”, “intent engineering” y “specification engineering”, y asegura que las personas más efectivas construyen infraestructura para que la especificación ocurra antes de escribir un solo prompt.

En esa lógica, el gran obstáculo es que la IA no conoce lo que el usuario ya trabajó: intentos previos, restricciones, decisiones recientes o personas clave. Cuando el contexto no se conserva, el usuario paga un “impuesto” constante por reexplicar. Según el autor, ese desgaste se multiplica al cambiar entre herramientas como Claude, ChatGPT o Cursor, porque el rastro de contexto queda fragmentado por aplicación.

El video cita un dato para dimensionar el costo mental: un estudio de Harvard Business Review que halló que los trabajadores digitales alternan entre aplicaciones cerca de 1.200 veces al día. En la visión del autor, la suma de esos microcambios erosiona la atención y agrava el problema de especificación. Por eso, sostiene que la arquitectura de memoria determina más las capacidades de un agente que la selección del modelo, una afirmación que, dice, suele subestimarse.

Jones reconoce que varias plataformas ya ofrecen memoria, incluyendo Claude, ChatGPT, Grok y Google. Aun así, marca el límite: esas memorias no se comparten. La memoria de una herramienta no “sigue” al usuario a otra, y eso crea jardines amurallados de contexto. En su lectura, esa brecha ya es suficientemente grande como para impulsar una nueva categoría de productos que intentan sincronizar contexto entre servicios.

De la “web humana” a la “web de agentes”: por qué las notas tradicionales no alcanzan

Una parte central del argumento es que las herramientas clásicas de notas fueron diseñadas para ojos humanos, no para agentes. Jones describe una “bifurcación” en la que conviven la web humana, con interfaces, páginas y diseño visual, y una web emergente para agentes, basada en APIs y datos estructurados.

En ese marco, menciona ejemplos de software centrado en la experiencia humana. Cita espacios de trabajo en Notion con páginas, vistas y elementos visuales; notas en ecosistemas cerrados como Apple; o repositorios con “clutter” acumulado como Evernote. Su punto no es que sean inútiles para personas, sino que no fueron construidos con la expectativa de que agentes consultarían el contenido por significado y de forma programática.

También cuestiona el enfoque de “bolt-ons” de IA, como “chatea con tus notas”. Aunque puede ser útil, dice, suele terminar en un silo más: un solo asistente que busca dentro de una sola aplicación. Para quienes usan varias herramientas por semana, el resultado se parece a “cinco pilas de notas adhesivas en cinco escritorios distintos”.

Para Jones, la llegada de agentes vuelve este punto urgente. Los casos de uso más potentes dependen de que el agente pueda acceder, de forma segura, a memorias relevantes del usuario. Sin esa capa, el agente “adivina” y se vuelve menos útil. Y si la memoria se convierte en mecanismo de lock-in, el usuario pierde libertad para cambiar de modelo sin perder contexto.

“Open brain”: una arquitectura propia con Postgres, embeddings y MCP

La propuesta del autor es almacenar pensamientos en infraestructura “diseñada para cualquier cosa”, no en una app para humanos. El núcleo sería una base de datos Postgres bajo control del usuario, complementada con embeddings vectoriales que capturan significado y habilitan búsqueda semántica. La idea es que el sistema sea “AI accessible” y “database-backed”, evitando intermediarios SaaS que pueden romper, repricing o desaparecer.

La capa que conecta todo es MCP, que el autor describe como un cambio de protocolo que empezó como un experimento de código abierto de Anthropic en noviembre de 2024 y que habría evolucionado hacia un estándar comparable con infraestructura base de internet. En su analogía, MCP sería como “HTTP” o como un “USB-C” para la era de la IA: un protocolo para que distintas herramientas hablen con el mismo “cerebro”.

El funcionamiento práctico se explica con un ejemplo de captura rápida: el usuario escribe un pensamiento en un canal tipo Slack, y en unos cinco segundos el sistema guarda el texto, genera el embedding, extrae metadatos (personas, temas, tipo, action items) y lo almacena en la base. Luego, cualquier IA conectada por MCP podría recuperar esa información mediante búsqueda semántica, listado de recientes o estadísticas.

Jones afirma que este diseño permite que el usuario cambie de herramienta sin reiniciar el contexto. Si mañana aparece un nuevo cliente compatible con MCP, podría “enchufarse” y consultar el mismo repositorio. Esa portabilidad, insiste, reduce la dependencia de la memoria propietaria de plataformas y vuelve más “futureproof” el sistema.

Implementación “no-code” y costos estimados: de USD $0,10 a USD $0,30 al mes

El video sostiene que el montaje puede hacerse sin programar, en cerca de 45 minutos, siguiendo una guía complementaria. Jones dice que probó el proceso con una persona sin experiencia de coding, y que logró configurarlo en ese tiempo. La promesa apunta a bajar la barrera técnica para que el factor decisivo sea el hábito de capturar, no la ingeniería.

En el esquema descrito, la captura pasa por una función tipo edge que genera embeddings y extrae metadatos en paralelo, y almacena ambos en Postgres con soporte vectorial. Luego, la recuperación se hace a través de un servidor MCP que expone herramientas de consulta. El autor menciona tres funciones concretas: búsqueda semántica, “listing recent” y “stats” para detectar patrones.

En cuanto a costos, Jones asegura que, usando niveles gratuitos de servicios como Slack y Supabase, el gasto mensual rondaría entre USD $0,10 y USD $0,30, considerando llamadas de API para unas 20 ideas al día. El argumento busca contrastar ese monto con el valor de recuperar tiempo y atención que hoy se pierde en reexplicar contexto entre chats y herramientas.

El autor admite límites. La extracción de metadatos no siempre sería perfecta, porque un modelo puede clasificar mal o pasar por alto un nombre. Sin embargo, sostiene que los embeddings compensan gran parte del problema, ya que la recuperación por significado funciona incluso si el etiquetado falla. En su enfoque, el requisito real es la constancia: el sistema “compone” valor con el tiempo, pero necesita entradas diarias.

Ventaja compuesta, agentes y el incentivo de las grandes plataformas

Jones plantea que la infraestructura de memoria define una brecha de carrera: entre “uso IA a veces” y “IA está integrada en cómo pienso y trabajo”. Para ilustrarlo, compara dos flujos. En el primero, una persona abre un chatbot y dedica minutos a explicar rol, proyecto y restricciones. En el segundo, la herramienta ya conoce esos elementos porque están en el “open brain”, por lo que la respuesta se apoya en meses de contexto.

Ese diferencial, según el autor, se vuelve compuesto. Cada decisión registrada, cada nota sobre una persona y cada insight capturado se convierten en nodos que aumentan la probabilidad de que la IA encuentre conexiones útiles en el futuro. En cambio, quien reinicia desde cero en cada conversación puede sentir que la IA sigue siendo un truco de fiesta, aunque use la misma tecnología base.

El video también enmarca el avance de agentes en un contexto más amplio: menciona que Anthropic trabaja en agentes, que OpenAI contrató a Peter Steinberger (a quien identifica como inventor de Open Claw), y que Open Claw habría superado 190.000 estrellas en GitHub y generado más de 1,5 millones de agentes autónomos en pocas semanas. Con ese telón de fondo, el autor insiste en que la memoria debe ser “agent readable” para que los agentes sean realmente proactivos.

Finalmente, Jones advierte sobre el incentivo de lock-in. “Sentirse conocido” es una experiencia atractiva, dice, y la memoria se convierte en palanca de retención. Su alternativa busca que el usuario sea dueño del repositorio y que cualquier modelo conectado por MCP lo use. En esa visión, probar nuevas IAs deja de implicar perder el historial que hace valiosas las interacciones.

Prompts y rutinas: migración de memoria, captura rápida y revisión semanal

Como parte operativa, Jones describe cuatro prompts para cubrir el ciclo de vida del sistema. El primero sería una “memory migration” para extraer lo que la IA ya sabe del usuario desde memorias acumuladas en distintas herramientas y guardarlo en el open brain. La intención es evitar que un nuevo cliente arranque sin contexto.

El segundo sería “open brain spark”, un prompt tipo entrevista para reducir el bloqueo al capturar. Pregunta por herramientas, decisiones, patrones de reexplicación y personas clave, y sugiere categorías de información que convendría registrar con regularidad. En la práctica, busca convertir el “¿qué debo guardar hoy?” en una rutina guiada.

El tercer grupo son plantillas de captura rápida, de unas cinco oraciones, optimizadas para mejorar la extracción de metadatos. Jones menciona formatos como captura de decisiones, nota sobre una persona, captura de insight y debrief de reunión. Su idea es que, con una semana de uso, el usuario desarrolle un estilo propio y dependa menos de plantillas.

El cuarto es una revisión semanal que sintetiza lo capturado: agrupa por temas, identifica action items sin resolver, detecta patrones entre días, encuentra conexiones perdidas y sugiere brechas en el tracking. El autor lo plantea como una inversión breve, de unos cinco minutos, que aumenta de valor conforme crece el repositorio.

El cierre del argumento es cultural y práctico. Jones sostiene que construir memoria propia es parte de ser “ciudadanos responsables” en una era de agentes, del mismo modo en que antes lo fueron la computadora personal y la alfabetización digital. La propuesta de open brain, dice, no reemplaza un “second brain” existente, sino que agrega una capa fundacional para que humanos y agentes consulten el mismo contexto sin depender de un proveedor.


ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.

Suscríbete a nuestro boletín