Un video de Nate B. Jones sostiene que la industria del software atraviesa un cambio de paradigma: el “token” reemplaza a la instrucción como unidad de trabajo. Bajo esa lógica, la inteligencia pasa a ser un insumo comprable, con curvas de precio y consumo que reordenan presupuestos, organigramas y carreras, mientras surgen rumores de “empleados IA” de hasta USD $20.000 mensuales.
***
- El video afirma que la “unidad de trabajo” en organizaciones nativas de IA está migrando desde instrucciones deterministas hacia tokens como “inteligencia comprada” vía inferencia.
- Se citan ejemplos de gastos agresivos: equipos que apuntan a USD $1.000 diarios en tokens y reportes sobre costos en AWS que superarían ingresos en compañías de IA.
- El autor plantea tres trayectorias laborales para 2026: orquestadores (gestión de tokens), constructores de sistemas (infraestructura de agentes) y traductores de dominio (expertos sectoriales que ahora “desarrollan”).
De la instrucción al token: un cambio de unidad en la computación
El desarrollador de software y analista de la industria IA, Nate B. Jones en YouTube plantea que el cambio más relevante en la industria de IA no es un nuevo producto específico, sino una mutación en la forma de medir y comprar capacidad de cómputo. Según la narración, durante cerca de seis décadas la “unidad de trabajo” del software fue la instrucción: una secuencia determinista escrita por humanos y ejecutada por máquinas. En ese marco, el valor del desarrollador se asociaba a traducir lógica de negocio a lógica de máquina, ticket por ticket.
El video sostiene que esa era estaría terminando. En su lugar, se impone el token como unidad de trabajo, descrito como una “unidad de inteligencia comprada”.
La idea central es que, en vez de indicar cada paso, el usuario describe resultados, aporta contexto y paga el presupuesto de inteligencia necesario para lograr una salida. El proceso se resume en un concepto: “inferencia”, donde el sistema “descubre” los pasos intermedios.
Este giro, siempre según el video, no equivale a una mejora incremental de herramientas. El autor lo presenta como un cambio categórico en “lo que es la computación”, con efectos de segundo orden sobre carreras, empresas y mercados. En esa lectura, el trabajo humano se desplaza hacia la abstracción: especificar objetivos, diseñar contextos y administrar el presupuesto de inteligencia que produce el resultado.
Para un público acostumbrado a hablar de “automatización” en términos binarios, el enfoque ofrece un lente distinto. En vez de preguntar si la IA reemplaza o no reemplaza a los programadores, propone observar qué pasa cuando el costo variable clave deja de ser el tiempo humano y pasa a ser el consumo de tokens. Ahí, argumenta el narrador, aparecen nuevas funciones organizacionales y también nuevos riesgos.
Los números que empujan el relato: gasto acelerado y presión en la nube
El video abre con un rumor: OpenAI estaría trabajando en un “empleado IA” con precio de USD $20.000 al mes. Sin embargo, el propio narrador insiste en que el foco no está en si esa cifra se materializa “el próximo mes”, sino en que la industria ya opera con presupuestos que vuelven plausible un precio así. En su lectura, los montos observados en el ecosistema de IA revelan una física distinta del cómputo.
Como ejemplo, menciona que a inicios de febrero de 2026 el CTO de Strong DM, Justin McCarthy, habría dicho que su equipo de tres personas apunta a gastar USD $1.000 al día en tokens, sin código escrito a mano. La mención busca ilustrar un modelo de producción donde el trabajo se organiza alrededor del gasto de inferencia y no alrededor de horas de desarrollo tradicional.
El video también cita un reporte atribuido al periodista Ed Zitron, fechado en octubre de 2025. Allí se menciona a Cursor, descrito como el mayor cliente de Anthropic, con un alza en costos de AWS desde USD $6 millones a más de USD $12 millones entre mayo y junio de 2025. El narrador conecta ese salto con el lanzamiento de “tiers” de servicio prioritario por parte de Anthropic, como parte de un nuevo esquema de precios.
En la misma línea, el video afirma que Zitron habría reportado que Anthropic gastó USD $2,66 mil millones en Amazon Web Services hasta septiembre de 2025, frente a un estimado de USD $2,55 mil millones en ingresos acumulados en el mismo período. El narrador subraya el punto como un síntoma: más del 100% del ingreso se iría a AWS, incluso antes de considerar el gasto en Google Cloud.
Por último, el video agrega otro caso desde la misma fuente: Perplexity habría gastado más del 100% de sus ingresos de 2024, hasta un 164%, sumando AWS, Anthropic y OpenAI. El argumento que se busca instalar es que estas compañías no estarían “buscando” operar más caro, sino apostando a un paradigma donde la inteligencia es un insumo comprable, con costos iniciales altos pero con expectativas de crecimiento rápido para volver a economías unitarias positivas.
Curvas de precio y consumo: cuando la eficiencia dispara el gasto
El narrador plantea que la apuesta se sostiene en dos curvas: la de precio y la de consumo. En cuanto a precios, afirma que los costos por token de inferencia caerían a ritmos que harían que la ley de Moore parezca “suave”, con rangos entre 10x y 200x por año, dependiendo de métricas. Como ejemplo, sostiene que un rendimiento “equivalente a GPT-4” costaba USD $20 por millón de tokens a finales de 2022, y que “hoy” costaría alrededor de USD $40.
También menciona que “Claude 4.5 Sonnet” correría a USD $3 por millón de tokens de entrada. Desde ahí proyecta que, si la tendencia continúa, en uno o dos años esa familia de precios podría volver a niveles de centavos. En el marco del video, estos números funcionan como la base para justificar un mercado donde se compra inteligencia como commodity y se decide cuánta adquirir según el retorno esperado.
Del lado del consumo, el autor invoca la paradoja de Jevons: cuando un recurso se vuelve más eficiente y barato, el consumo total tiende a aumentar. Ilustra con analogías históricas, como motores de vapor y carbón, o cloud computing y facturas crecientes. En el relato, esta dinámica explica por qué la caída del costo por token no reduce gasto total, sino que habilita más casos de uso, más automatización y más “inteligencia” circulando dentro de las organizaciones.
En ese punto, el video menciona que Satya Nadella habría citado por nombre esa paradoja “a inicios de 2025” tras el “momento DeepSeek”, afirmando que a medida que la IA se vuelve más eficiente y accesible, su uso se disparará. El narrador sostiene que esa lectura se habría materializado en el último año, con un crecimiento de ingresos en IA y con inversiones intensas de infraestructura por parte de hyperscalers.
Como cifra adicional, el video afirma que la organización promedio gastaría USD $85.000 mensuales en IA, con un alza interanual de 36%. También indica que el porcentaje que planea gastar más de USD $100.000 al mes habría subido desde 20% hasta 45%. Para el autor, esa tendencia explicaría por qué OpenAI podría pensar en “tiers” de agentes: desde USD $2.000 al mes para agentes tipo knowledge worker, hasta USD $10.000 para agentes especializados, y hasta USD $20.000 para investigación en IA.
La nueva competencia interna: gestión de tokens, contexto y retorno
El cambio, sin embargo, no se queda en precios. El video insiste en que la verdadera reconfiguración llega cuando la inteligencia se vuelve un costo variable que puede subirse o bajarse. En el paradigma anterior, el recurso escaso era el tiempo, sobre todo el tiempo de desarrollo. Se contrataban ingenieros y el cuello de botella era cuántas horas de trabajo calificado se podían desplegar, con toda la maquinaria de reclutamiento y retención.
En el nuevo esquema, dice el narrador, el cuello de botella es la capacidad de convertir tokens en valor económico usable. La inteligencia sería abundante y cada vez más barata, pero lo escaso sería saber “apuntarla” bien: estructurar contexto, enrutar tareas al modelo correcto al costo adecuado, sostener calidad en bucles de agentes y medir si el gasto realmente produce los resultados buscados.
Para ese conjunto de habilidades, el video ofrece varios nombres posibles, sin fijarse en uno: “token management”, “intelligence operations” o “context engineering”. Lo que sí afirma es que se trataría de una habilidad real, medible, y que las organizaciones que la construyen comienzan a distanciarse. Describe empresas que levantan plataformas internas para decidir qué modelo usar en cada caso, en función de precio y dificultad.
En ese contexto, se menciona que las compañías podrían negociar acuerdos API personalizados, comprometer pisos de consumo a cambio de capacidad dedicada y precios por volumen. El video cita un dato atribuido a una encuesta empresarial de a16z: el gasto promedio en LLM de empresas habría llegado a USD $7 millones en 2025, desde USD $4,5 millones dos años antes, y con proyecciones de entrar a ocho cifras, alrededor de USD $11 millones o más en 2026. Además, afirma que el gasto dejó de ser un “presupuesto de innovación” y migró hacia presupuestos centralizados de TI y unidades de negocio.
Cuando el modelo de negocio se rompe: el ejemplo de Cursor y el riesgo proveedor
El video advierte que esta nueva disciplina puede fallar de forma “catastrófica”, sobre todo cuando el gasto escala. En ese marco relata el caso de Cursor, al que describe como un editor de código impulsado por IA que alcanzó “ingresos de mil millones” con mucha rapidez. El problema, según el autor, es que Cursor enfrentó una trampa estructural: gran parte de su ingreso terminaría yéndose en costos API hacia Anthropic.
La narración sostiene que, cuando Anthropic introdujo prioridades y aumentó precios de caching, los costos de Cursor se volvieron difíciles de controlar y “explotaron de la noche a la mañana”. Eso habría forzado cambios de producto, incluyendo eliminar un plan “ilimitado” de USD $20 al mes y sumar un nivel de USD $200 mensuales. El video describe una reacción negativa de usuarios, incluyendo protestas y quejas en Reddit.
Más allá de repartir culpas, el narrador enfatiza la lección: en una economía de tokens, el costo de la inteligencia es el corazón del negocio. Por eso, cualquier cambio en precios del proveedor puede disparar una crisis en empresas downstream. Desde esa lógica, la “token economics” no sería solo finanzas, sino una competencia central de supervivencia.
El video añade que parte de la respuesta de Cursor habría sido construir su propio modelo, precisamente para salir de esa dependencia. La referencia funciona como síntoma de un nuevo incentivo: si la inteligencia es el insumo clave, las empresas intentarán recuperar control sobre su estructura de costos, sea con acuerdos, con rutas multi-modelo o con modelos propios.
Tres tipos de desarrolladores en 2026: quién gana, quién pierde y quién ni lo sabe
Con ese telón de fondo, el video se vuelve más personal: el impacto en carreras técnicas. El narrador critica la discusión binaria de “la IA reemplaza al developer o no” y propone una diferenciación rápida del rol en tres trayectorias. Cada una, afirma, tiene habilidades, tech stacks y dinámicas de compensación distintas.
La primera es el “orchestrator”. En este camino, el desarrollador escribiría menos código y pasaría a especificar resultados, administrar presupuestos de inteligencia y diseñar arquitecturas de agentes. Las habilidades centrales, según el video, son diseño de sistemas, redacción de especificaciones, evaluación de calidad y economía de tokens. La idea es que su valor escala con el volumen de inteligencia que dirige, por lo que la compensación podría correlacionar más con presupuestos de tokens que con líneas de código.
La segunda trayectoria es el “systems builder”. Aquí entran quienes construyen infraestructura para los orquestadores: frameworks de agentes, pipelines de evaluación, sistemas de manejo de contexto y capas de enrutamiento para decidir el modelo adecuado al costo adecuado. El video lo describe como trabajo técnico profundo, cercano a ingeniería de sistemas, pero sobre componentes probabilísticos. También sugiere que es una vía más pequeña en volumen, pero con techo de compensación alto por el apalancamiento a nivel empresa.
La tercera vía es el “domain translator”, que el narrador presenta como la menos discutida y quizá la más grande. Son personas con suficiente fluidez técnica para trabajar con sistemas de IA y suficiente experiencia sectorial para identificar problemas valiosos en un mercado. En el relato aparecen ejemplos como especialistas en gestión de clínicas dentales, expertos en cronogramas de construcción o analistas de cumplimiento en seguros, que ahora podrían construir herramientas en vez de solo usarlas.
La implicación dura, según el video, es que el “medio” de la distribución de ingenieros tradicionales sería el más expuesto: quienes escriben código de aplicaciones de forma competente, pero sin profundidad de sistemas ni profundidad de dominio. El argumento no es que todos serán reemplazados de inmediato, sino que el valor de la producción genérica de código tendería a cero a medida que el costo de tokens cae. Por eso, insiste el narrador, “solo” usar IA para programar no alcanzaría: habría que moverse hacia orquestación, construcción de sistemas o traducción de dominio.
Del organigrama por headcount al throughput de inteligencia
El video amplía el impacto hacia la estructura de empresas. Hoy, sostiene, muchas organizaciones de ingeniería se diseñan alrededor de headcount, FTE y planificación de contratación. La productividad se mide de forma imperfecta como output por ingeniero, y los planes se construyen desde carga de trabajo proyectada. En un modelo token-first, el output estaría limitado por la capacidad de convertir gasto inteligente en valor, no por cuánta gente escribe código a mano.
Como ejemplo conceptual, afirma que una organización con 500 ingenieros escribiendo código manual podría producir menos que una con 50 ingenieros administrando agentes, si estos últimos cuentan con mejores specs, mejores evaluaciones, mejor context engineering y un mayor presupuesto de tokens por persona. Al mismo tiempo, advierte que despedir 90% del equipo no garantiza productividad inmediata, porque el cambio organizacional es lento, humano y político.
En su relato, incluso despliegues fallidos pueden dejar aprendizajes que elevan el rendimiento. Menciona a “CLA” como un caso que habría tenido un rollout desastroso y habría debido recontratar personal de atención al cliente. Pese a ello, el video asegura que la compañía estaría viendo ingresos por empleado en el rango de siete cifras, por encima del promedio SaaS, y atribuye esa mejora a la construcción de herramientas de IA durante el proceso.
En paralelo, el video señala que datos de a16z mostrarían compañías nativas de IA con entre 3x y 5x más ingresos por empleado que SaaS tradicional. Pone un ejemplo comparativo: un startup de IA con USD $10 millones de ARR podría operar con 15 personas, mientras un SaaS tradicional necesitaría 55 a 70. En esta visión, la brecha crecería a medida que madure el tooling y obligaría a reorganizar o aceptar una desventaja permanente.
Más software, más nichos: la expansión del mercado cuando cae el costo de construir
Otro efecto de segundo orden que enfatiza el narrador es qué se decide construir. Con costos de construcción más bajos, se vuelven viables proyectos que antes no lo eran: herramientas internas que ahorran horas pero que no justificaban meses de desarrollo, integraciones que desbloquean ingresos pero requerían equipos enteros, o automatizaciones de nicho para clientes específicos. En esa lógica, el backlog de una empresa puede convertirse en una mina de oro.
El video plantea que, si una organización se enfoca solo en optimizar headcount, pierde el punto. El diferencial competitivo se movería hacia output y calidad, habilitados por la capacidad de dirigir tokens con precisión. La idea se conecta con un argumento más amplio sobre estratificación: empresas grandes como Goldman Sachs o JPMorgan podrían gastar mucho más en inferencia que startups pequeñas, lo que les daría un eje de competencia por volumen.
Sin embargo, el narrador añade un contrapeso: cuando el insumo central se comoditiza, la ventaja competitiva migra hacia alrededor del commodity. Allí aparecen distribución, conocimiento de dominio, relaciones con clientes, datos propietarios, integraciones de workflow, marca y confianza. Desde esa lectura, una gran institución puede comprar inteligencia, pero no necesariamente puede vender una solución vertical de nicho si no tiene el canal ni el foco.
El resultado, en el relato, es una división más interesante que “ricos vs pobres” por presupuesto de tokens. El autor lo describe como “escala generalizada” versus “precisión especializada”. En la cima estarían empresas y plataformas horizontales que corren agentes 24/7 en workflows amplios, con moats de capital e infraestructura. En el resto de la superficie del mercado, crecerían especialistas que ganan por ángulo, nicho, relación y confianza, aprovechando que la caída del costo hace rentable resolver problemas muy específicos.
El horizonte del solopreneur y equipos cada vez más pequeños
El video también aborda el debate sobre compañías de USD $1.000 millones fundadas por una sola persona. Dice que en Silicon Valley existiría una apuesta sobre cuándo aparecerá la primera, con quienes creen que podría pasar “este año”. Aun así, el narrador sostiene que la implicación real no es el titular, sino la convergencia del “equipo mínimo viable” hacia uno, a medida que la inteligencia se compra por tokens y el costo de construir baja.
Esta convergencia, continúa el argumento, vuelve “independizarse” menos un sacrificio de estilo de vida y más una decisión económica racional para quien tenga conocimiento de dominio y fluidez con IA. El mismo vector presionaría a la baja el tamaño de equipos en grandes compañías, que pasarían de “two pizza teams” a “one pizza” o incluso “half pizza teams”, en la metáfora del propio video.
Al final, el narrador regresa al punto inicial: más allá del rumor del “empleado IA” de USD $20.000 al mes, lo que importaría es entender que la computación está cambiando su unidad fundamental. En su marco, tokens e inferencia se convierten en material base del software, y esa transición reordena presupuestos, productos, carreras y estrategias competitivas.
La recomendación implícita es estratégica: ubicarse en el nuevo mapa. Para unos será aprender a orquestar y medir calidad con presupuestos de tokens; para otros será construir infraestructura robusta sobre componentes probabilísticos; y para muchos será llevar la IA a un dominio específico con contexto real y distribución. En cualquier caso, el video propone que navegar la economía del token definirá quién captura valor en la siguiente etapa del mercado tecnológico.
ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.
Suscríbete a nuestro boletín
Artículos Relacionados
PIB de EE. UU. decepciona al cierre de 2025: 1,4% en el cuarto trimestre y el shutdown pesa en la cifra
Meta reorienta Horizon Worlds: del VR al móvil para competir con Roblox y Fortnite
Elon Musk apuesta por data centers de IA en el espacio: “será lo más barato” en 30 a 36 meses