Por Canuto  

Un post viral retomó una idea que gana tracción entre desarrolladores y usuarios avanzados de IA: construir una base de conocimiento personal sin software especializado, usando solo carpetas, archivos de texto y un asistente capaz de ordenar, resumir y conectar información. La propuesta, atribuida a Andrej Karpathy y ampliada por Nick Spisak, busca reemplazar sistemas complejos por una estructura mínima, fácil de mantener y cada vez más útil con el tiempo.
***

  • El sistema se basa en tres carpetas, un archivo de esquema y una IA que organiza el contenido en una wiki personal.
  • La propuesta incluye el uso opcional de agent-browser, una herramienta CLI de Vercel Labs para automatizar scraping web.
  • El método insiste en revisiones periódicas para evitar que errores de la IA se acumulen dentro de la base de conocimiento.


La idea de construir un “segundo cerebro” con inteligencia artificial volvió al centro de la conversación tecnológica tras la difusión de un hilo que resume y amplía una práctica atribuida a Andrej Karpathy. El planteamiento parte de una premisa austera: en vez de repartir notas, enlaces, capturas y documentos en múltiples aplicaciones, todo el material se vuelca en una sola carpeta del sistema.

Desde allí, un modelo de IA puede leer los archivos, organizarlos en una wiki personal y generar resúmenes, conexiones temáticas y respuestas a preguntas concretas. El enfoque evita bases de datos, software especializado y configuraciones complejas. Según la explicación difundida por Nick Spisak, bastan carpetas comunes, archivos de texto y una regla simple sobre cómo debe comportarse el asistente.

El atractivo del método está en su sencillez. Para muchos usuarios, las herramientas de productividad se vuelven más difíciles de mantener cuanto más sofisticadas son. En cambio, esta propuesta busca que la estructura sea lo bastante simple como para durar en el tiempo y lo bastante flexible como para crecer con nuevos documentos, ideas y consultas.

Aunque no se trata de una plataforma comercial cerrada, la explicación se presenta como una receta práctica. El sistema también puede adaptarse a flujos de trabajo de investigación, producción de contenido o aprendizaje autodidacta. En ese sentido, conecta con una tendencia más amplia: usar IA no solo para responder preguntas, sino para construir memoria operativa sobre materiales propios.

Una estructura mínima: raw, wiki y outputs

La base del sistema consiste en crear una carpeta principal y, dentro de ella, tres subcarpetas. La primera, raw/, funciona como depósito de materiales sin procesar. La segunda, wiki/, alberga la versión organizada y sintetizada por la IA. La tercera, outputs/, guarda las respuestas, informes o análisis derivados de las consultas del usuario.

La lógica es deliberadamente simple. En raw/ entra todo: artículos copiados a archivos .md o .txt, capturas de pantalla, diagramas, notas exportadas desde otras aplicaciones, apuntes de reuniones, documentos de proyectos, trabajos académicos o colecciones de marcadores. La recomendación es no perder tiempo ordenando, renombrando o limpiando este material de manera manual.

Según la explicación compartida, esa tarea debe recaer en la IA. Spisak afirma que mantiene 17 archivos fuente en bruto a lo largo de su propio pipeline de contenido en X, incluyendo artículos recortados, desgloses de competidores e informes de analítica. La intención es que el usuario concentre la energía en reunir información, no en administrarla antes de tiempo.

Ese punto resulta relevante porque toca una debilidad habitual de los sistemas personales de conocimiento. Muchas personas abandonan estas herramientas no porque les falte información, sino porque el proceso de clasificación inicial se vuelve una fricción constante. El modelo propuesto intenta invertir esa secuencia: primero se acumula, luego la IA estructura.

Scraping automatizado y un archivo de reglas para la IA

Uno de los complementos sugeridos es agent-browser, una herramienta CLI gratuita lanzada por Vercel Labs. La utilidad permite que un agente de IA controle un navegador real, visite páginas web, extraiga texto y lo guarde directamente dentro de raw/. El hilo asegura que el proyecto suma más de 26.000 estrellas en GitHub.

La ventaja práctica es clara. En lugar de abrir páginas, copiar, pegar y depurar contenido manualmente, el usuario puede ordenar a su asistente que haga scraping de una URL y almacene el resultado como archivo local. La herramienta también sería útil para sitios con mucho JavaScript, páginas que cargan contenido de forma dinámica, entornos con “load more”, menús interactivos o material detrás de inicios de sesión.

El hilo sostiene además que agent-browser usa un 82% menos de tokens que Playwright MCP. Bajo esa comparación, un agente podría scrapear entre cinco y seis veces más páginas dentro de una misma sesión. No se aportan más detalles metodológicos sobre esa cifra, pero la afirmación se presenta como una de las razones por las que esta pieza encaja bien en una base de conocimiento personal que crece con frecuencia.

Junto a la automatización, el sistema depende de un archivo de esquema ubicado en la raíz del proyecto. Puede llamarse CLAUDE.md, AGENTS.md o README.md. Lo importante no es el nombre, sino su contenido. Ese archivo define de qué trata la base de conocimiento y cómo debe organizarla la IA, actuando como manual operativo para el asistente.

De acuerdo con la explicación, Karpathy habría descrito su esquema como “super simple and flat” en un archivo AGENTS.md. Es decir, no habría una base de datos detrás ni un plugin especializado, sino reglas escritas en texto plano. Esa decisión refuerza la filosofía general del método: reducir dependencias y privilegiar estructuras legibles por humanos y máquinas.

Cómo la IA convierte el material en una wiki personal

Una vez reunidos los insumos y definido el esquema, el siguiente paso consiste en abrir una herramienta de programación asistida por IA, como Claude Code, Cursor u otra capaz de leer archivos locales. La instrucción sugerida es directa: leer todo lo contenido en raw/, compilar una wiki en wiki/, crear primero un INDEX.md, generar un archivo por cada tema principal, vincular temas relacionados y resumir cada fuente.

El objetivo es producir una colección de artículos ordenados, navegables y coherentes entre sí. En teoría, al completar esta fase el usuario obtiene un índice consultable, resúmenes de material ya olvidado y conexiones entre piezas que originalmente estaban dispersas. El resultado se asemeja a una enciclopedia privada alimentada por documentos propios.

Un aspecto central del método es que la wiki no se edita a mano. La recomendación es leerla, preguntarle cosas y dejar que la IA la mantenga al día. Esta separación intenta reducir la tentación de convertir el sistema en otra tarea de mantenimiento. El usuario aporta materiales y consultas; el asistente se ocupa de consolidar y reorganizar.

Ese flujo también cambia la función de la IA. Ya no opera solo como chatbot generalista, sino como motor de síntesis sobre un corpus elegido por el propio usuario. En ámbitos como investigación, análisis competitivo o aprendizaje técnico, esa diferencia puede ser sustancial porque el valor no está solo en la respuesta, sino en que la respuesta se base en evidencia interna y trazable.

Preguntas, mejoras acumulativas y riesgos de error

Después de reunir más de 10 artículos en la wiki, el sistema propone pasar a una fase de consulta continua. Entre los ejemplos citados están preguntas sobre lagunas de conocimiento en torno a un tema, comparaciones entre dos fuentes con posibles discrepancias y redacción de informes de 500 palabras basados exclusivamente en el contenido ya almacenado.

Las respuestas pueden guardarse en outputs/ o incorporarse de vuelta a la wiki si aportan una idea útil. Bajo esta lógica, cada pregunta mejora la siguiente porque amplía el contexto disponible para el asistente. El mecanismo se presenta como un bucle compuesto: más materiales producen mejores resúmenes, mejores resúmenes habilitan mejores preguntas y esas preguntas generan nuevas capas de conocimiento utilizable.

Sin embargo, el mismo proceso entraña un riesgo. Si una respuesta generada por IA contiene un error y ese error se reincorpora a la base, la siguiente iteración podría construir sobre una premisa defectuosa. En el hilo se recupera una observación de @HFloyd: “When outputs get filed back, errors compound too”. El punto es especialmente importante en sistemas autorreferenciales.

Para enfrentar ese problema, el método recomienda una “revisión de estado” mensual. La instrucción a la IA sería revisar todo el directorio wiki/, detectar contradicciones entre artículos, señalar temas mencionados pero nunca explicados, identificar afirmaciones que no estén respaldadas por una fuente en raw/ y sugerir tres artículos nuevos que llenen vacíos.

En otras palabras, el sistema no se plantea como autónomo en sentido absoluto. Aunque la IA organiza y redacta, necesita auditorías periódicas para preservar calidad. Ese matiz es clave para quienes ven en estas herramientas una forma de amplificar el trabajo intelectual sin renunciar a criterios básicos de verificación.

La crítica implícita a las herramientas complejas

Otro eje del planteamiento es la desconfianza hacia configuraciones demasiado cargadas de software, plugins y capas de personalización. El hilo menciona que una parte importante de las respuestas al post de Karpathy estuvo centrada en recomendar plugins de Obsidian. También alude a que Lex Fridman usa Obsidian con Cursor y a que ya existen al menos tres startups construyendo herramientas dedicadas para este tipo de tarea.

La respuesta atribuida a Karpathy fue la contraria: mantener todo “super simple and flat”, con un directorio anidado de archivos .md. Desde esa visión, Obsidian puede usarse, pero no es necesario. También podrían utilizarse VS Code, un editor básico o incluso el bloc de notas. La IA no depende de la aplicación elegida para abrir los archivos, sino de la estructura y de las reglas que la guían.

La crítica es que una pila de herramientas sofisticadas puede convertirse en otra versión de la trampa de Notion: pasar más tiempo configurando el sistema que aprovechándolo. Para quienes adoptan esta filosofía, los archivos planos y un buen esquema superarán a un ecosistema complejo en la mayoría de los casos, sobre todo cuando el objetivo es capturar información y volverla reutilizable con rapidez.

En ese sentido, la propuesta funciona también como comentario cultural sobre la IA aplicada a la productividad. No todo necesita una nueva plataforma. A veces, el mayor cambio viene de conectar herramientas simples con modelos capaces de leer, resumir y enlazar información a escala. Tres carpetas, un archivo de reglas, un scraper opcional y una rutina de revisión bastan para convertir un archivo desordenado en una memoria de trabajo más útil.

La explicación concluye con una idea práctica: miles de personas pueden guardar una publicación sobre conocimiento personal, pero la diferencia entre guardarla y beneficiarse de ella está en dedicar un fin de semana a montarla. El mensaje final no es buscar la herramienta perfecta, sino empezar a construir.


ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.

Suscríbete a nuestro boletín