Por Canuto  

La expansión de la inteligencia artificial ya no depende solo de levantar más centros de datos o conseguir electricidad. Según Dylan Patel, CEO de SemiAnalysis, el límite más duro para escalar cómputo de IA hacia 2030 será la capacidad global de fabricar chips avanzados, memoria y herramientas EUV.
***

  • Dylan Patel afirmó que el mayor cuello de botella para la IA ya no será la energía, sino la cadena de suministro de semiconductores.
  • Anthropic y OpenAI necesitarían varios gigavatios adicionales de capacidad solo para sostener su crecimiento en inferencia y entrenamiento.
  • La presión sobre memoria DRAM y HBM podría encarecer smartphones, PCs y otros productos de consumo durante los próximos años.

La carrera por escalar la inteligencia artificial está entrando en una fase menos visible para el gran público, pero mucho más decisiva para la economía tecnológica global. Ya no se trata solo de construir centros de datos gigantescos o asegurar electricidad barata. El problema central, según Dylan Patel, CEO de SemiAnalysis, está más abajo en la cadena industrial: fabricar suficientes chips, suficiente memoria y suficientes herramientas avanzadas para producirlos.

En una conversación con Dwarkesh Patel titulada Dylan Patel — The single biggest bottleneck to scaling AI compute, el analista describió un panorama donde la expansión del cómputo para IA depende cada vez más de obleas lógicas, DRAM, HBM y máquinas EUV. Su tesis es directa: la energía seguirá siendo un reto, pero el límite estructural de aquí a 2030 será la manufactura de semiconductores.

El planteamiento importa más allá de Silicon Valley. La razón es simple. Si la IA sigue impulsando gasto récord en centros de datos y alquiler de cómputo, también alterará cadenas de suministro enteras, desde Nvidia y TSMC hasta fabricantes de memoria, operadores eléctricos y proveedores de hardware de consumo.

Patel estimó que el CapEx combinado proyectado este año para Amazon, Meta, Google y Microsoft ronda USD $600.000 millones. Si se suma el resto de la cadena de suministro, la cifra se acerca al orden de USD $1 billón. Sin embargo, aclaró que no todo ese gasto se traduce en cómputo disponible de inmediato, porque una parte importante se destina a depósitos para turbinas de 2028 y 2029, obras de centros de datos para 2027, acuerdos de compra de energía y preparativos de infraestructura a largo plazo.

El tiempo real del CapEx y la urgencia de los laboratorios

Según Patel, en Estados Unidos se desplegarían este año cerca de 20 gigavatios de capacidad incremental. Una parte importante corresponde a hyperscalers, aunque no toda. También participan otros jugadores de infraestructura. En ese contexto, los mayores compradores de cómputo siguen siendo OpenAI y Anthropic, que actualmente estarían alrededor de entre 2 y 2,5 gigavatios y buscan escalar mucho más rápido.

El caso de Anthropic fue uno de los más llamativos de la conversación. Patel señaló que, si la empresa continúa agregando ingresos al ritmo reciente, podría incorporar USD $60.000 millones en ingresos durante los próximos diez meses. Con los márgenes brutos mencionados en reportes de prensa, eso implicaría cerca de USD $40.000 millones de gasto en cómputo para inferencia.

Con costos de alquiler cercanos a USD $10.000 millones por gigavatio, esa expansión obligaría a Anthropic a sumar unos 4 gigavatios de capacidad de inferencia solo para sostener el crecimiento del negocio. Y eso, advirtió, asumiendo que su flota de entrenamiento e investigación no crezca. En consecuencia, Patel cree que Anthropic necesitaría superar los 5 gigavatios hacia final de año.

Su estimación es que Anthropic podría llegar a entre 5 y 6 gigavatios a finales de este año, combinando capacidad propia y despliegues servidos a través de Bedrock, Vertex o Foundry. OpenAI, añadió, estaría en niveles similares o algo superiores. La diferencia clave es estratégica: OpenAI habría asegurado acceso a más proveedores y contratos más agresivos, mientras Anthropic se mostró más conservadora para evitar compromisos financieros excesivos.

Por qué firmar antes importa más que tener el mejor modelo

Uno de los argumentos más fuertes de Patel es que, en un mercado con cómputo limitado, la ventaja no solo está en desarrollar mejores modelos. También está en cerrar contratos antes que los demás. OpenAI, dijo, asumió riesgos al firmar acuerdos de largo plazo con Microsoft, Google, Amazon, CoreWeave, Oracle y otros actores menos tradicionales, incluyendo SoftBank Energy y NScale.

Anthropic, en cambio, habría privilegiado proveedores de mayor calidad, como Google y Amazon, pero con una postura más prudente. Esa cautela hoy se traduce en menor flexibilidad. Si necesita capacidad adicional en el corto plazo, debe recurrir a neoclouds, capacidad remanente o acuerdos de revenue share, todos más caros que haber contratado con antelación.

Patel explicó que en el mercado existen contratos de uno, dos o tres años que van venciendo, y esa capacidad puede ser capturada por quien más pague. Dijo haber visto acuerdos de H100 de entre USD $2,00 y USD $2,40 por hora a plazos de dos o tres años. Eso contrasta con un costo de despliegue cercano a USD $1,40 por hora para Hopper, medido a cinco años.

La lectura financiera es clara. En un entorno donde el valor económico por GPU sube porque los modelos generan más ingresos, quienes aseguraron cómputo temprano conservan mejor margen. Quienes llegan tarde deben aceptar precios spot, plazos más caros o cesión de margen al proveedor cloud. Para Patel, en un mundo limitado por capacidad, esa diferencia contractual se vuelve una ventaja competitiva tangible.

El cuello de botella vuelve a los chips

Durante los últimos años, la industria fue rotando el foco del problema. Primero fue CoWoS. Luego la energía. Después la construcción de centros de datos. Ahora, según Patel, el cuello de botella vuelve al origen: chips y memoria. La razón es que las restricciones con menor plazo de resolución ya fueron parcialmente absorbidas, mientras que fabricar semiconductores avanzados y expandir fabs toma mucho más tiempo.

Patel recordó que levantar una fab puede requerir entre dos y tres años, mucho más que un centro de datos. También subrayó que ya casi no queda capacidad para seguir desplazando producción desde mercados de móviles y PCs hacia IA. Nvidia ya sería el mayor cliente de TSMC y de SK Hynix, lo que reduce la posibilidad de seguir reasignando oferta existente.

Su visión es que, conforme avance la década, el último gran cuello de botella terminará siendo ASML. La firma neerlandesa produce las herramientas EUV necesarias para litografía avanzada. Hoy fabricaría unas 70 máquinas al año. El próximo año serían 80. Incluso en escenarios agresivos, Patel proyecta poco más de 100 hacia el final de la década.

Esa cifra parece abstracta hasta que se traduce en cómputo. Para desplegar 1 gigavatio de capacidad con chips Rubin de Nvidia, Patel calculó que se requieren unas 55.000 obleas de 3 nm, 6.000 de 5 nm y unas 170.000 obleas de memoria DRAM. En total, eso supone alrededor de 2 millones de pases EUV. Como cada herramienta puede procesar unas 75 obleas por hora con un tiempo activo cercano a 90%, serían necesarias unas 3,5 máquinas EUV por cada gigavatio.

La matemática de 2030 y el límite de ASML

Con esa lógica, Patel sostiene que para el final de la década podrían existir unas 700 herramientas EUV acumuladas en operación a escala global. Si todo se dedicara a IA, eso equivaldría a cerca de 200 gigavatios en chips para centros de datos. No ocurrirá así, porque parte de la capacidad seguirá destinada a móviles, PCs y otros sectores. Aun así, sus números buscan mostrar que las aspiraciones de varios líderes del sector dependen de una cadena de suministro extremadamente concentrada.

Sam Altman ha hablado de 1 gigavatio por semana en 2030. Elon Musk mencionó 100 gigavatios anuales en el espacio. Patel cree que esas metas son compatibles solo si se logra capturar una gran porción de la capacidad global de fabricación. En su opinión, no es un problema teórico. Este mismo año, OpenAI tendría acceso a cerca de 25% de los GPU Blackwell desplegados, lo que sugiere que ciertas asignaciones extremas sí son posibles.

El problema es que la cadena de suministro no se expande al ritmo del entusiasmo de los laboratorios. Patel argumentó que muchos proveedores no están “AGI-pilled”, es decir, no creen en una expansión tan rápida como para justificar inversiones todavía más agresivas. En su visión, OpenAI y Anthropic saben que necesitan X, Nvidia construye X menos 1, y más abajo en la cadena algunos proveedores apenas avanzan hacia X dividido entre 2.

Eso explica por qué no basta con pedir más producción. ASML, Carl Zeiss, Cymer y decenas de miles de proveedores enfrentan procesos complejos, especializados y lentos. Patel describió las máquinas EUV como los sistemas industriales más complejos fabricados por la humanidad, con ópticas de precisión extrema, fuentes de luz basadas en gotas de estaño y componentes que se ensamblan en Países Bajos y luego se desmontan para enviarse al cliente.

Memoria, precios y daño colateral al consumidor

La conversación también se detuvo en otro frente sensible: la memoria. Patel afirmó que cerca de 30% del CapEx de Big Tech en 2026 iría a memoria. No solo a lógica. Ese dato importa porque HBM y DRAM ya son parte central del costo de los aceleradores modernos.

Según su análisis, la presión sobre memoria seguirá intensificándose y los precios continuarán subiendo. Eso no solo encarece la infraestructura de IA. También presiona a fabricantes de teléfonos, PCs y otros dispositivos de consumo. Patel dio un ejemplo simple: si un iPhone incorpora 12 GB de memoria y el costo por gigabyte sube desde unos USD $3 o USD $4 hasta alrededor de USD $12, el impacto directo sobre el costo del equipo sería muy significativo.

En su escenario, el alza de DRAM y NAND podría traducirse en un incremento de hasta USD $250 en el precio final de un iPhone entre mayores costos y traspaso al consumidor. En gamas bajas y medias el golpe sería aún peor, porque el peso de memoria y almacenamiento en la estructura de costos es mayor y los márgenes son más ajustados.

Patel proyectó que el mercado mundial de smartphones podría caer desde unos 1.100 millones de unidades hacia entre 800 millones este año y entre 500 millones y 600 millones el próximo, con recortes más severos en gama baja y media. En su lectura, la IA no solo reorganiza centros de datos. También podría deteriorar la relación precio-rendimiento de productos cotidianos, alimentando mayor rechazo social a esta ola tecnológica.

Energía, China y el debate sobre espacio

A diferencia del panorama para chips, Patel se mostró mucho más optimista sobre energía. Cree que la red, las turbinas y la generación detrás del medidor pueden expandirse más rápido de lo que muchos asumen. Citó no solo turbinas de ciclo combinado, sino aeroderivadas, motores recíprocos, motores marinos, celdas de combustible, baterías, solar y otras alternativas.

Su tesis es que Estados Unidos y otros mercados pueden añadir cientos de gigavatios de capacidad eléctrica antes del final de la década. El reto será duro, pero no tan rígido como el de semiconductores. Por eso considera que los centros de datos en el espacio no tienen sentido económico todavía. En un mundo limitado por chips, lo importante es poner cada GPU a producir tokens lo antes posible, no retrasarla meses enviándola fuera del planeta.

Sobre China, Patel planteó un escenario más ambiguo. Cree que el país podría lograr DUV plenamente indigienizado antes de 2030 y tener herramientas EUV funcionales hacia ese momento, aunque no necesariamente producidas en masa. Si los plazos de la IA son largos, China podría recortar parte de la ventaja occidental gracias a mayor verticalización industrial. Si los plazos son rápidos, la ventaja de Estados Unidos y sus aliados podría ampliarse primero.

En conjunto, la entrevista dibuja una conclusión incómoda para el mercado. La próxima fase de la IA no dependerá solo del talento algorítmico ni del apetito de capital. Dependerá de la parte más lenta, costosa y física del sistema. Quien entienda antes esa aritmética industrial tendrá una ventaja desproporcionada sobre el resto.


Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público.

Este artículo fue escrito por un redactor de contenido de IA y revisado por un editor humano para garantizar calidad y precisión.


ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.

Suscríbete a nuestro boletín