Andrej Karpathy asegura que la programación ya entró en una nueva etapa: menos escritura manual y más delegación a agentes de IA. En una conversación reciente, el investigador describió cómo esta transición ya está cambiando la ingeniería de software, la automatización del hogar, la investigación en IA y hasta la forma en que podría reorganizarse el trabajo digital en los próximos años.
***
- Karpathy afirmó que desde diciembre casi dejó de escribir código manualmente y ahora delega la mayor parte del trabajo a agentes.
- El investigador explicó cómo usa sistemas autónomos para controlar su casa, optimizar modelos y explorar la automatización de la investigación.
- También defendió el papel del open source y alertó sobre los riesgos de una excesiva centralización en los laboratorios de frontera.
🤖🚨 Fin de la programación manual: la era de los agentes autónomos ha comenzado.
Andrej Karpathy, exinvestigador de OpenAI, afirma que hemos entrado en una nueva fase de la ingeniería de software.
Desde diciembre, dejó de escribir código manualmente y delega tareas a múltiples… pic.twitter.com/sHl8oZL6k9
— Diario฿itcoin (@DiarioBitcoin) March 22, 2026
Andrej Karpathy cree que la programación, tal como se entendía hasta hace poco, está dejando paso a una dinámica distinta. En una conversación con la conductora del canal No Priors: AI, Machine Learning, Tech, & Startups, el investigador afirmó que ya no piensa en “escribir código” como verbo principal, sino en “expresar su voluntad” a agentes que trabajan por él durante horas.
La idea no es menor. Karpathy sostuvo que desde diciembre se produjo un salto de capacidad que modificó de forma drástica el flujo de trabajo de muchos ingenieros. Según explicó, pasó de una dinámica aproximada de 80/20, con predominio del código escrito por él mismo, a otra cercana a 20/80, y dijo que hoy probablemente delega incluso más. De hecho, aseguró que no ha tecleado una línea de código desde entonces.
Su diagnóstico apunta a un cambio operativo profundo. Para Karpathy, la pregunta ya no es cómo trabajar con una sola sesión de un agente de código, sino cómo coordinar múltiples agentes a la vez, con instrucciones, memoria y optimización sobre esas instrucciones. En su visión, el cuello de botella ahora no es tanto el cómputo, sino la habilidad humana para estructurar bien el trabajo.
Esa sensación, dijo, vuelve el momento actual tan absorbente como inquietante. Lo describió como una especie de “psicosis de IA”, una etapa en la que el potencial parece todavía inexplorado y donde muchos fallos se sienten menos como límites de la tecnología y más como problemas de uso, diseño de prompts, memoria o coordinación.
De programador a orquestador de agentes
Karpathy explicó que la nueva competencia consiste en operar a un nivel más alto de abstracción. En lugar de pedir una función o corregir una línea, el usuario puede delegar funcionalidades completas a distintos agentes, revisar sus resultados y repartir tareas paralelas entre varios repositorios o frentes de trabajo.
En ese esquema, una persona pasa a ser una especie de director de orquesta. Un agente puede investigar, otro escribir código, otro diseñar un plan de implementación y otro auditar memoria o consistencia. La productividad potencial aumenta, pero también lo hace la presión por mantener a todos esos agentes activos y bien coordinados.
Karpathy comparó esta nueva etapa con lo que sentía cuando era estudiante de doctorado y se preocupaba si sus GPU no estaban trabajando al máximo. Ahora, dijo, la variable crítica ya no son los FLOPS sino los tokens. Si un usuario no agota la capacidad de sus suscripciones, siente que está desaprovechando rendimiento.
En su opinión, esto hace que el aprendizaje sea adictivo. Cada mejora en la forma de indicar tareas, paralelizar trabajo o diseñar archivos de instrucciones produce desbloqueos reales. Por eso habló de “skill issue”, una expresión coloquial para sugerir que, cuando algo no funciona, muchas veces el problema podría estar en cómo se utilizó el sistema y no necesariamente en la ausencia de capacidad.
Los “claws” y la idea de software persistente
Uno de los conceptos más llamativos de la conversación fue el de los “claws”, una capa de automatización persistente que, según Karpathy, lleva más lejos la idea de los agentes. No se trata solo de asistentes interactivos que responden en una ventana, sino de entidades que siguen funcionando dentro de su propio entorno, con memoria más sofisticada y cierto grado de autonomía sostenida.
Para ilustrarlo, contó que en enero construyó uno para gestionar su hogar. Lo bautizó “Dobby the elf claw” y explicó que logró descubrir, a través de la red local, distintos subsistemas de la casa. Entre ellos mencionó Sonos, luces, HVAC, persianas, piscina, spa y sistema de seguridad.
El proceso, según relató, fue sorprendentemente simple. Dijo que bastó con indicarle al sistema que probablemente tenía Sonos en casa para que hiciera un escaneo IP, detectara los equipos, encontrara endpoints de API y comenzara a interactuar con el sistema. En pocos prompts, el agente ya podía reproducir música en una habitación específica.
Karpathy añadió que el sistema también terminó creando APIs y un tablero para ver y controlar luces. Con comandos en lenguaje natural, como indicar que era “hora de dormir”, el sistema apagaba las luces y ejecutaba acciones coordinadas. Además, integró una cámara exterior con un modelo de visión que le envía mensajes por WhatsApp cuando detecta eventos, por ejemplo la llegada de un camión de FedEx.
Más allá del efecto anecdótico, el punto de fondo es más amplio. Karpathy cree que esta experiencia muestra que gran parte del software actual, sobre todo el que existe en forma de apps aisladas, podría acabar siendo reemplazado por APIs que los agentes consumen directamente. En ese mundo, la interfaz tradicional perdería peso y el usuario interactuaría con una sola capa conversacional.
En su formulación, la industria deberá adaptarse a un escenario donde el cliente ya no es solo el ser humano, sino también agentes que actúan en su nombre. Eso implicaría una refactorización significativa de herramientas, servicios y modelos de producto.
AutoResearch y la automatización de la ciencia aplicada
Karpathy también dedicó buena parte de la conversación a “AutoResearch”, su idea de reorganizar la investigación para sacar a los humanos del bucle operativo. El principio es sencillo de expresar y difícil de ejecutar: introducir pocos tokens de vez en cuando y dejar que una gran cantidad de trabajo ocurra de forma autónoma.
Como ejemplo, mencionó su proyecto de entrenamiento de modelos pequeños, al que usa como entorno de pruebas para explorar la posibilidad de que modelos de lenguaje mejoren a otros modelos de lenguaje. En su visión, ese tipo de recursividad está en el centro de lo que intentan los laboratorios de frontera.
Karpathy dijo que había afinado manualmente su repositorio con la experiencia acumulada de dos décadas entrenando modelos. Aun así, al dejar correr AutoResearch durante una noche, el sistema encontró ajustes que él no había visto, entre ellos cambios vinculados al weight decay sobre embeddings de valor y a la sintonización de los betas del optimizador Adam, con interacciones entre hiperparámetros que también requerían reconsideración conjunta.
Para él, el aprendizaje es claro. En problemas con métricas objetivas y evaluación verificable, la automatización puede encajar muy bien. Puso como ejemplo tareas como escribir kernels CUDA más eficientes o buscar configuraciones que reduzcan la pérdida de validación en entrenamiento de modelos.
Sin embargo, también marcó límites. Cuando no existe una métrica clara o el criterio depende de matices difíciles de verificar, la automatización se complica. Ese es, a su juicio, uno de los puntos donde los modelos actuales siguen mostrando bordes ásperos y comportamientos erráticos.
Modelos brillantes, pero irregulares
Karpathy describió a los agentes actuales como una combinación extraña entre un estudiante de doctorado brillante en sistemas y un niño de 10 años. La observación apunta a la “jaggedness”, o irregularidad, de los modelos: pueden resolver tareas complejas durante horas y, al mismo tiempo, cometer errores absurdos o desperdiciar grandes cantidades de cómputo en direcciones equivocadas.
Su hipótesis es que esa irregularidad se relaciona con la forma en que se entrenan y optimizan los modelos. Donde hay recompensas claras y tareas verificables, como programar y pasar pruebas unitarias, las mejoras avanzan con rapidez. Pero en terrenos más suaves, como el humor, la intención implícita o la necesidad de hacer preguntas aclaratorias, el progreso es menos lineal.
Karpathy dio un ejemplo concreto. Dijo que si hoy se le pide a un modelo de punta que cuente un chiste, todavía tiende a responder con una broma muy antigua sobre los átomos: “no confían en los átomos porque lo inventan todo”. Para él, eso ilustra que no toda mejora en dominios verificables se traduce en una inteligencia general más satisfactoria.
En consecuencia, aunque ve clara la dirección del progreso, considera que todavía no se puede delegar todo sin reservas. Parte del sistema “revienta por las costuras”, dijo en esencia, y aún hace falta más trabajo para que la experiencia sea realmente robusta.
Open source, laboratorios de frontera y riesgos de centralización
Otro tramo relevante de la charla giró en torno a la distancia entre modelos abiertos y cerrados. Karpathy señaló que los sistemas open source siguen detrás de los modelos propietarios, pero cree que la brecha se ha acortado con el tiempo. Según su descripción, se pasó de un escenario sin alternativas reales a uno en el que la diferencia podría medirse en unos pocos meses.
El investigador defendió el valor estructural del software abierto con una analogía al ecosistema de sistemas operativos. Así como Linux terminó convirtiéndose en una plataforma común de enorme relevancia, cree que la industria también necesita una base abierta en inteligencia artificial que funcione como espacio compartido y reduzca riesgos sistémicos.
Para Karpathy, no es deseable un futuro en el que la inteligencia quede concentrada solo en unas pocas entidades cerradas. A su juicio, la centralización tiene un historial pobre en la historia política y económica, por lo que ve saludable mantener una combinación donde los laboratorios de frontera empujan la capacidad y el open source democratiza lo que ya dejó de ser frontera.
También admitió que hoy los laboratorios de frontera siguen siendo el lugar donde ocurre buena parte del trabajo más avanzado y donde se puede observar con más claridad lo que viene. Pero advirtió sobre otro dilema: quienes trabajan dentro de esas organizaciones no siempre pueden participar como agentes completamente independientes en el debate público sobre sus consecuencias.
En esa tensión, Karpathy dijo ver valor tanto dentro como fuera de esas instituciones. No descartó volver a una de ellas en el futuro, aunque defendió que también es posible generar impacto desde un rol más abierto y orientado al ecosistema.
Trabajo, educación y el futuro del software
En materia laboral, Karpathy dijo estar tratando de entender cómo la IA remodelará distintas profesiones. Su interés reciente por datos del mercado de trabajo surgió de esa pregunta: qué ocupaciones procesan sobre todo información digital y cuáles podrían verse más transformadas por agentes que operan a gran velocidad en el ámbito digital.
Su tesis es que el cambio llegará primero a ese entorno. Manipular bits es más fácil y rápido que manipular átomos, por lo que espera una aceleración mucho mayor en tareas digitales que en robótica o automatización física. Aun así, también cree que a largo plazo el mercado del mundo físico podría ser incluso más grande, aunque tardará más en madurar.
Sobre ingeniería de software, se mostró cautelosamente optimista. Considera posible que opere una versión del llamado efecto Jevons: si producir software se vuelve mucho más barato, la demanda total puede crecer en vez de caer. En otras palabras, si el software deja de ser escaso, podrían abrirse más casos de uso y más necesidad de construirlo.
También abordó el impacto en educación. A propósito de su proyecto microGPT, un esfuerzo por condensar el entrenamiento de modelos en apenas unas 200 líneas de Python, sostuvo que la enseñanza podría estar migrando desde la documentación pensada para humanos hacia explicaciones diseñadas primero para agentes. Si el agente entiende bien el sistema, dijo, luego podrá explicarlo de forma personalizada al usuario final.
Ese cambio, en su lectura, redefine el valor del experto humano. La contribución distintiva ya no estaría tanto en explicar cada detalle, sino en aportar esas pocas ideas o simplificaciones que el agente todavía no es capaz de descubrir por sí mismo.
En conjunto, la conversación recogida en The End of Coding: Andrej Karpathy on Agents, AutoResearch, and the Loopy Era of AI, del canal No Priors: AI, Machine Learning, Tech, & Startups, dibuja un escenario donde el software se vuelve más efímero, la investigación más autónoma y la relación entre humanos y máquinas más parecida a una supervisión de sistemas que a una ejecución manual.
Karpathy no presentó ese futuro como algo resuelto. Al contrario, insistió en que todavía hay fricción, riesgos de seguridad, problemas de privacidad, métricas incompletas y una dosis importante de incertidumbre. Pero su idea central fue inequívoca: la era de escribir código línea por línea está perdiendo centralidad frente a otra, donde la clave es coordinar inteligencias artificiales capaces de trabajar durante más tiempo, con más memoria y con menos intervención humana directa.
ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.
Suscríbete a nuestro boletín
Artículos Relacionados
Entrevistas
Simon Willison, co-creador de Django explica por qué las pruebas son la clave para que los agentes de código no se descarrilen
Empresas
Nvidia proyecta USD $1 billón en ingresos para 2027 mientras Anthropic gana terreno a OpenAI
Empresas
Terafab: el plan de Musk para dominar chips de IA y espacio
Empresas