El analista Dylan Patel sostuvo que la economía de la IA está entrando en una etapa donde el recurso realmente escaso ya no es la idea ni el software, sino el acceso a los mejores tokens y a la infraestructura capaz de servirlos. Su tesis combina una demanda empresarial explosiva, márgenes en expansión para los laboratorios de modelos y una cadena de suministro que sigue sin ponerse al día.
***
- Dylan Patel dijo que el gasto anual de su firma en Claude Code subió hasta una tasa de USD $7.000.000, frente a una masa salarial cercana a USD $25.000.000.
- El analista afirmó que la demanda por tokens de IA está creciendo más rápido que la capacidad de cómputo, lo que favorece márgenes altos y acceso restringido a modelos de frontera.
- También advirtió sobre cuellos de botella en GPUs, memoria DRAM, CPUs, óptica, equipos de fabricación y hasta insumos como cobre y fibra de vidrio para PCBs.
La carrera por la inteligencia artificial podría estar entrando en una fase más dura y desigual de lo que muchos anticipaban. Para Dylan Patel, fundador y analista principal de SemiAnalysis, el verdadero cuello de botella ya no está en imaginar nuevos productos, sino en conseguir suficientes tokens de los mejores modelos y pagar la infraestructura necesaria para usarlos a escala.
Durante una conversación con Patrick O’Shaughnessy en The Supply and Demand of AI Tokens | Dylan Patel Interview, Patel describió un cambio acelerado en la economía de la IA. Según explicó, la implementación de ideas se ha vuelto mucho más fácil gracias a los modelos actuales, pero eso no reduce la competencia. La traslada hacia el acceso preferente a capacidades de frontera y hacia la habilidad de convertir esos tokens en valor económico real.
El diagnóstico conecta con una discusión más amplia sobre productividad, automatización, concentración de poder tecnológico y presión sobre cadenas de suministro. También importa para mercados financieros, centros de datos, energía y hardware, ya que la demanda por IA no solo impulsa software, sino también servidores, memoria, óptica, CPUs y capacidad eléctrica.
Patel resumió esta transformación con una frase tajante: antes importaba mucho la ejecución porque ejecutar era muy difícil y las ideas eran baratas. Ahora, sostuvo, las ideas siguen siendo abundantes, pero la implementación es cada vez más sencilla. En ese entorno, solo sobreviven las ideas capaces de justificar el gasto en una implementación que, aunque más fácil, sigue siendo intensiva en capital.
El salto del gasto en IA dentro de una firma especializada
Uno de los puntos más llamativos de la entrevista fue la evolución del propio consumo interno de IA en SemiAnalysis. Patel relató que el año pasado su empresa creía ser una usuaria intensiva de herramientas de IA, con gasto en suscripciones del orden de decenas de miles de dólares. Sin embargo, dijo que ese patrón cambió por completo en los primeros meses de 2026.
Según Patel, el punto de inflexión comenzó a finales de diciembre con Opus. A partir de enero, el gasto se aceleró con fuerza, impulsado no solo por ingenieros, sino también por personal no técnico que empezó a usar herramientas de codificación asistida. La firma firmó un contrato enterprise con Anthropic, y el ritmo de consumo escaló rápidamente.
La cifra que ofreció fue concreta. Señaló que, cuando habló previamente con el entrevistador, el gasto anualizado rondaba USD $5.000.000, pero que en ese momento ya se ubicaba en USD $7.000.000. Añadió que esa tasa equivalía a más de 25% de una masa salarial cercana a USD $25.000.000, y advirtió que, si la trayectoria continuaba, el gasto en IA podría superar 100% del gasto salarial antes de fin de año.
Patel aclaró que, en su caso, ese gasto no implica todavía elegir entre empleados y modelos, porque la empresa sigue creciendo con rapidez. Aun así, reconoció que otras compañías podrían enfrentar pronto una disyuntiva más dura si una sola persona logra hacer el trabajo de entre cinco y quince personas con ayuda de Claude Code u otras herramientas similares.
De laboratorios de chips a macroeconomía: casos concretos de productividad
Para defender que el gasto sí está generando retorno, Patel detalló varios ejemplos internos. Uno de ellos se dio en el laboratorio de ingeniería inversa que su firma ha construido en Oregon durante el último año y medio. Allí analizan chips con microscopios avanzados y otras herramientas para extraer datos sobre arquitectura y materiales de fabricación.
Ese proceso, explicó, era lento y requería un trabajo especializado de análisis. Sin embargo, una persona del equipo gastó unos pocos miles de dólares en tokens de Claude para crear una aplicación acelerada por GPU, ejecutada en un servidor de CoreWeave, capaz de procesar imágenes del chip y superponer los distintos materiales del stack, como cobre, tantalio, germanio y cobalto.
El resultado, según relató, fue un tablero visual que permite hacer análisis de elementos finitos sobre toda la estructura con gran rapidez. Patel dijo que un ex empleado de Intel le comentó que antes ese tipo de herramienta requería el trabajo de un equipo entero para construirla y mantenerla. Ahora, en su versión, fue desarrollada con un costo de implementación mucho menor.
El segundo caso vino del área económica. Malcolm, un economista que antes trabajó en un gran banco, habría conectado datos de FRED, reportes laborales y múltiples APIs para correr regresiones y evaluar el impacto económico de la automatización por IA. Patel afirmó que ese trabajo, realizado por una sola persona, habría requerido antes un departamento de entre 100 y 200 economistas durante un año.
Entre sus resultados, destacó un análisis sobre las cerca de 2.000 tareas clasificadas por la Oficina de Estadísticas Laborales de Estados Unidos. De acuerdo con Patel, el estudio concluyó que alrededor de 3% de esas tareas ya puede realizarse con IA. A partir de allí, Malcolm construyó una métrica para estimar efectos deflacionarios y acuñó el término “phantom GDP”, o PIB fantasma, para describir un escenario donde la producción aumenta mientras el costo cae tanto que el PIB medido podría incluso contraerse.
Por qué Patel cree que los tokens ya son el recurso crítico
Más allá de ejemplos internos, el argumento central de Patel es que la demanda por tokens de IA se está comportando como una nueva forma de escasez económica. En su visión, los modelos de frontera generan tanto valor por token consumido que incluso precios más altos no logran enfriar el interés de los usuarios más avanzados.
Tomó como referencia a Anthropic para ilustrar ese punto. Afirmó que la empresa pasó de alrededor de USD $9.000.000.000 en ingresos a una cifra de entre USD $35.000.000.000 y USD $40.000.000.000, con la posibilidad de que el nivel siguiera subiendo. Según su lectura, el crecimiento de cómputo no habría sido proporcional a ese salto, lo que implicaría una fuerte expansión de márgenes.
Patel sostuvo que, incluso si todo el cómputo incremental hubiera sido destinado a inferencia y no a investigación, los márgenes brutos de Anthropic tendrían un piso de 72%. Contrastó eso con filtraciones previas que sugerían márgenes de poco más de 30% al inicio del año. Para él, ese cambio refleja una demanda tan fuerte que la compañía puede limitar uso, subir exigencias de contrato enterprise y priorizar clientes capaces de monetizar mejor cada token.
Desde esa perspectiva, el problema ya no es solo cuánto cuestan los tokens, sino quién consigue acceso primero. Patel dijo que tener un representante de Anthropic y un contrato enterprise se vuelve clave para obtener mayores rate limits y evitar restricciones. También planteó que, en el futuro, algunos actores con gran capital podrían asegurar acceso preferencial a modelos nuevos antes que sus competidores, reforzando la concentración.
Modelos más potentes, más caros y aun así más atractivos
Otra parte central de la charla giró en torno a los modelos más avanzados de Anthropic. Patel describió a Mythos como un salto potencialmente enorme en capacidad, incluso el mayor en alrededor de dos años, y sugirió que internamente ya estaba disponible desde febrero. Según su comparación, Anthropic habría pasado de un modelo equivalente a un ingeniero de software nivel L4 a uno más cercano a L6 en apenas dos meses.
Ese ritmo, a su juicio, muestra que las leyes de escalado siguen funcionando. También sugiere que la cadencia de lanzamientos se está comprimiendo, porque la implementación de nuevas ideas en investigación es mucho más fácil con asistencia de IA. En otras palabras, los propios laboratorios están usando modelos para acelerar la mejora de modelos, lo que acorta ciclos de lanzamiento.
Patel insistió en que los usuarios no quieren quedarse en niveles anteriores de capacidad aunque esos modelos se abaraten. Dijo que los costos para alcanzar cierta capacidad caen con rapidez, incluso hasta una fracción de 1/600 en comparación con generaciones previas como GPT-4 en algunos ejemplos, pero eso no detiene la demanda por el modelo más nuevo. La razón es simple: el verdadero valor económico está en la frontera, no en la capacidad ya comoditizada.
Incluso señaló que un modelo más caro por token puede terminar siendo más barato por tarea si resuelve el trabajo con menos tokens y mayor eficacia. Para Patel, el incentivo natural de los usuarios profesionales es migrar al mejor modelo disponible apenas aparece, porque quedarse atrás equivale a perder productividad, velocidad y eventualmente cuota de mercado.
La oferta sigue rezagada: GPUs, DRAM, CPUs y una cadena de suministro bajo presión
Si la demanda es explosiva, la oferta sigue siendo el otro gran tema. Patel dijo que los precios están subiendo en casi toda la cadena relacionada con IA. Mencionó GPUs Nvidia con vida útil más larga de la prevista, clusters H100 y A100 que se renuevan por años adicionales, márgenes muy altos en la capa cloud y también en hardware, además de fuertes prepagos en varios eslabones del suministro.
Uno de los focos más importantes, según explicó, está en la memoria. Afirmó que la capacidad de expansión en memoria DRAM es limitada y que el suministro incremental real tarda años en llegar. Aunque las empresas reaccionen rápido a señales de demanda, dijo que la nueva capacidad sustancial apenas aparecería hacia finales de 2027 o 2028. Por eso, anticipó que los precios de DRAM podrían duplicarse o triplicarse desde los niveles actuales.
También mencionó presión en lógica avanzada y en equipos de fabricación. Citó el aumento continuo del capex de TSMC y planteó como posibilidad real que la firma llegue a gastar USD $100.000.000.000 en 2028. Si ese escenario se materializa, argumentó, el efecto se transmitirá a proveedores como ASML, Lam Research, Applied Materials y otros actores más pequeños del ecosistema, profundizando cuellos de botella.
Patel añadió que la escasez ya no se limita a GPUs. Dijo que las CPUs están completamente vendidas en muchos segmentos por dos motivos: su papel en entornos de reinforcement learning y su uso para ejecutar las aplicaciones y servicios que surgen del código generado por IA. A eso sumó una mayor demanda por FPGAs, óptica, láseres, cobre y fibra de vidrio para PCBs, mostrando que el fenómeno es transversal.
Concentración, “subclase permanente” y posible reacción social
En el tramo final de la conversación, Patel llevó la discusión hacia un terreno más social y político. Afirmó que quienes no aprendan a usar más tokens, generar valor con ellos y capturar parte de ese valor corren el riesgo de quedar en una “subclase permanente”. Su argumento es que todavía no es una capacidad de uso universal, por lo que existe una ventana para ganar ventaja competitiva antes de que la IA sea un estándar de mesa.
Sin embargo, esa promesa de productividad viene acompañada de ansiedad. Patel dijo sentir incertidumbre y cierto temor ante un mundo donde la capacidad de implementar ya no sea la principal ventaja humana. En ese nuevo entorno, lo decisivo sería elegir la idea correcta, dirigir a la IA hacia ella, financiar el proceso y comercializar el resultado.
También proyectó una consecuencia política directa. A su juicio, en los próximos tres meses podría haber protestas a gran escala contra empresas como Anthropic y OpenAI. Su lectura es que la IA ya es impopular entre buena parte del público, y que la aceleración de ingresos, automatización y concentración de beneficios podría intensificar el rechazo social, especialmente si líderes del sector continúan hablando del futuro en términos grandilocuentes sin explicar beneficios tangibles en el presente.
Para Patel, la economía de la IA no se dirige hacia una simple baja de costos del software, sino hacia una reorganización más profunda. Si su tesis es correcta, los tokens serán el nuevo activo escaso que definirá productividad, márgenes y poder de mercado en la próxima fase tecnológica. La pregunta abierta no es si habrá demanda, sino quién tendrá acceso a ella y qué hará con ese acceso.
Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público.
Este artículo fue escrito por un redactor de contenido de IA y revisado por un editor humano para garantizar calidad y precisión.
ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.
Suscríbete a nuestro boletín
Artículos Relacionados
Análisis de mercado
Bnb consolida por debajo de SMA-7 ante volumen menguante
Análisis de mercado
XRP consolida en USD $1,39 ante volumen decreciente
Análisis de mercado
Dogecoin sube 0,06% en consolidación técnica
Análisis de mercado