Jensen Huang defendió el modelo de negocio de Nvidia, negó que la empresa esté cerca de commoditizarse y sostuvo que su ventaja real combina arquitectura, software, escala industrial y una cadena de suministro capaz de anticipar cuellos de botella años antes. También rechazó la idea de ceder China en nombre de la seguridad nacional, al considerar que eso debilitaría a Estados Unidos en una de las capas más críticas de la industria de IA.
***
- Huang aseguró que Nvidia no compite solo con TPUs o ASIC, sino desde una plataforma de computación acelerada mucho más amplia y programable.
- El CEO sostuvo que los cuellos de botella en lógica, memoria, empaquetado y EUV pueden resolverse en un plazo de 2 a 3 años si existe una señal clara de demanda.
- Sobre China, afirmó que bloquear a Nvidia en ese mercado sería un error estratégico porque debilita el liderazgo tecnológico estadounidense en chips y software.
Nvidia atraviesa un momento definitorio en la industria de inteligencia artificial. Mientras crecen las dudas sobre si la IA terminará commoditizando parte del software, si los hyperscalers podrán depender menos de CUDA, o si los controles de exportación a China alterarán el mapa tecnológico mundial, Jensen Huang salió a defender la posición de la compañía con una tesis amplia: Nvidia no vende solo chips, sino una plataforma industrial completa para transformar energía en tokens.
En una conversación con Dwarkesh Patel, Huang sostuvo que el negocio de Nvidia sigue lejos de commoditizarse. También argumentó que su ventaja competitiva no depende únicamente de CUDA ni de su liderazgo en GPU, sino de una combinación de ecosistema, escala, programabilidad, cronograma de producto, capacidad de inversión y coordinación de la cadena global de suministro.
La discusión tocó además temas delicados para el mercado: la competencia de los TPU de Google, el peso creciente de Anthropic en arquitecturas alternativas, las inversiones de Nvidia en OpenAI y Anthropic, la escasez de chips, el futuro de los neoclouds y la controversia sobre vender hardware avanzado a China.
La tesis central de Huang: de electrones a tokens
Huang respondió a la idea de que Nvidia podría terminar commoditizada si la IA abarata el software con una imagen simple. Dijo que la entrada del negocio son electrones y la salida son tokens, y que en el medio está Nvidia. Según su planteamiento, la transformación de electrones en tokens útiles y cada vez más valiosos requiere una combinación de arte, ingeniería, ciencia e invención que no resulta fácil de replicar.
Para el directivo, Nvidia hace “tanto como sea necesario y tan poco como sea posible”. Eso significa concentrarse en las partes más difíciles de la pila tecnológica y apoyarse en socios para todo lo demás. En su lectura, esta estrategia le ha permitido construir uno de los ecosistemas más grandes de la industria, con alianzas aguas arriba y aguas abajo, desde fundiciones y memorias hasta ensambladores, fabricantes de computadoras, desarrolladores de aplicaciones y creadores de modelos.
Huang también rechazó la noción de que la IA destruirá la demanda de software empresarial. A su juicio, ocurrirá lo contrario. Explicó que el número de agentes crecerá de forma exponencial y, con ello, también el número de usuarios de herramientas y las instancias de software especializado. Mencionó casos como Excel, PowerPoint, Cadence y Synopsys, y sostuvo que los agentes terminarán usando estos programas a gran escala cuando mejoren sus capacidades operativas.
En esa lógica, el cuello de botella actual no es la falta de valor en el software, sino la cantidad de ingenieros humanos disponibles. Si esos ingenieros pasan a estar asistidos por agentes, el espacio de diseño se expandirá de forma radical y el uso de herramientas podría dispararse.
El verdadero foso: cadena de suministro, demanda y escala
Uno de los puntos más relevantes de la conversación fue la defensa del “moat” de Nvidia. Ante referencias a compromisos de compra por casi USD $100.000 millones y reportes que elevan esa cifra futura a USD $250.000 millones, Huang reconoció que asegurar componentes críticos sí forma parte de su ventaja.
Sin embargo, matizó que no se trata solo de contratos explícitos. Según explicó, buena parte del poder de Nvidia proviene de su capacidad para convencer a proveedores de invertir antes de que la demanda sea visible para todos. Dijo que pasa gran parte de su tiempo informando, alineando e inspirando a ejecutivos de industrias clave para que comprendan el tamaño del mercado que viene.
La razón por la que estos socios aceptan expandir capacidad, añadió, es que Nvidia sí tiene cómo comprar ese suministro y colocarlo entre una base enorme de clientes aguas abajo. En otras palabras, el flujo de demanda es tan grande que habilita las inversiones aguas arriba. Huang vinculó esa dinámica a eventos como GTC, donde intenta reunir a toda la cadena para que clientes, fabricantes, startups y socios puedan ver de primera mano hacia dónde se dirige la IA.
Para el CEO, esta coordinación permite a Nvidia “construir para un futuro” de escala masiva. Incluso afirmó que, si los próximos años implican un negocio del orden de USD $1 billón, la empresa tiene ya una cadena preparada para moverse en esa dirección. Su tesis es que pocas compañías podrían sostener una arquitectura si el flujo de negocio fuera débil, pero Nvidia sí puede porque la demanda de su base instalada sigue siendo enorme.
Cuellos de botella: CoWoS, HBM, EUV y el problema de la energía
Patel le planteó una duda compartida por buena parte del sector: si Nvidia ya consume gran parte de la capacidad avanzada de TSMC, ¿cómo seguirá duplicando ingresos y expandiendo cómputo año tras año? Huang respondió que, en cualquier instante, la demanda supera la oferta global, pero eso no significa que los cuellos de botella sean permanentes.
Citó el caso de CoWoS, la tecnología avanzada de empaquetado de TSMC que durante dos años fue vista como uno de los mayores frenos del sector. Dijo que la industria “enjambró” ese problema con tal intensidad que ahora la situación está mucho mejor encaminada. Añadió que CoWoS y la memoria HBM ya dejaron de ser nichos y hoy son tecnologías de computación mainstream.
El ejecutivo sostuvo que la mayoría de los cuellos de botella pueden resolverse en 2 a 3 años si existe una señal clara de demanda. Esto, según él, aplica incluso a equipos como las máquinas EUV. Afirmó que, una vez que se puede fabricar una unidad, escalar a diez o muchas más no es imposible. Lo importante es que toda la cadena crea en el volumen futuro.
Además, remarcó que Nvidia no espera pasivamente a que aparezcan los problemas. Aseguró que la empresa “prefetches” los cuellos de botella con años de anticipación, invierte en el ecosistema y ayuda a crear nuevas tecnologías, pruebas y flujos de trabajo. Mencionó asociaciones con Lumentum, Coherent, el ecosistema de fotónica de silicio y el trabajo con TSMC en tecnologías como COUPE.
Pese a ese optimismo, Huang dijo que su mayor preocupación no está tanto en los semiconductores, sino en lo que ocurre después. Señaló a la energía como el riesgo estructural real. A su juicio, no se puede crear una nueva industria manufacturera, ni fábricas de chips, ni centros de datos de IA, ni robots, ni vehículos eléctricos sin abundante energía. Ese problema, advirtió, tarda más en resolverse que ampliar la producción de chips o empaquetado.
TPU, ASIC y la disputa por la mejor arquitectura para IA
El entrevistador puso sobre la mesa un argumento cada vez más frecuente en la industria: si buena parte del auge actual proviene del entrenamiento e inferencia de modelos con enormes multiplicaciones de matrices, una arquitectura tipo TPU podría estar mejor optimizada que una GPU generalista. Huang respondió que Nvidia construyó algo distinto: computación acelerada, no solo una unidad de procesamiento tensorial.
Su respuesta insistió en que la IA moderna no vive únicamente de multiplicaciones de matrices. Dijo que cuando aparecen nuevos mecanismos de atención, arquitecturas híbridas o combinaciones como difusión con autoregresión, hace falta una plataforma programable. Esa flexibilidad sería la base para cambiar algoritmos con rapidez y capturar mejoras de 10x o 100x más allá del ritmo de Moore.
Según Huang, esa es la razón de fondo por la que saltos como el de Hopper a Blackwell, que cifró en 30x a 50x de mejora de eficiencia según el contexto, no pueden atribuirse solo a la litografía. Lo que cuenta es el co-diseño extremo entre procesadores, sistema, interconexión, librerías y algoritmo. También destacó componentes como NVLink y Spectrum-X como parte de esa optimización integral.
Patel le recordó que dos de los modelos más destacados del momento, Claude y Gemini, fueron entrenados en TPU, y que grandes clientes como Google, Amazon o incluso OpenAI desarrollan kernels propios y stacks alternativos. Huang aceptó que clientes de frontera escriben software muy sofisticado, pero sostuvo que Nvidia sigue siendo necesaria porque nadie conoce su arquitectura mejor que su propio equipo.
En esa línea, afirmó que Nvidia asigna un número “insano” de ingenieros a trabajar con laboratorios de IA para optimizar sus cargas. Dijo que no es raro que, tras ese trabajo conjunto, un modelo mejore entre 50%, 2x o hasta 3x. Eso, subrayó, se traduce directamente en más ingresos para los operadores de grandes flotas.
Huang defendió que el punto crucial es el costo total de propiedad. Aseguró que ninguna plataforma ha demostrado aún una mejor relación entre rendimiento y TCO que Nvidia. También cuestionó públicamente las afirmaciones de costo ventajoso hechas por competidores como TPU o Trainium, y dijo que le gustaría verlas medidas en referencias comparables como MLPerf o InferenceMAX.
CUDA, la base instalada y el cliente real de Nvidia
Uno de los debates más finos giró en torno a CUDA. Patel sugirió que, si la mayor parte de los ingresos proviene ya de los cinco grandes hyperscalers, y si estos tienen recursos para escribir sus propios kernels, el foso de CUDA podría ser menos decisivo de lo que fue en épocas anteriores. Huang replicó que CUDA no es solo un compilador o una capa técnica, sino un ecosistema vasto y muy probado.
Dijo que construir primero sobre CUDA sigue siendo la opción inteligente porque soporta todos los frameworks importantes. Mencionó Triton, vLLM, SGLang, NeMo RL y verl, y afirmó que Nvidia contribuye de forma fuerte a varios de esos proyectos. También recalcó que el valor para un desarrollador no es únicamente el stack, sino la base instalada.
En ese punto, recordó que Nvidia tiene varios cientos de millones de GPU desplegadas y presencia en todas las nubes relevantes, así como en robots, servidores on-premise y distintos formatos de hardware. Eso, según su planteamiento, permite que el software y los modelos construidos sobre CUDA sean útiles en una enorme variedad de contextos. Para quien desarrolla frameworks o productos, esa portabilidad tiene mucho peso.
Huang también cuestionó la premisa de que sus clientes sean solo unos pocos laboratorios dominantes. Señaló que una parte muy relevante del consumo en AWS, Azure u OCI corresponde a clientes externos de esas nubes, no a uso interno de los hyperscalers. A su juicio, el verdadero volante de inercia incluye disponibilidad, ecosistema, costo por token, rendimiento por watt y una base mundial de usuarios y empresas de IA.
Anthropic, OpenAI, neoclouds y por qué Nvidia no quiere ser una nube
La conversación también permitió ver cómo Nvidia está usando su caja para moldear el ecosistema. Huang reconoció que en el pasado subestimó cuánto capital requería construir un laboratorio fundacional como OpenAI o Anthropic. Dijo que antes pensaba que podrían financiarse como cualquier startup, pero que hoy entiende que eso no era realista para proyectos que exigían inversiones de USD $5.000 millones a USD $10.000 millones o más.
Por eso afirmó que, si hubiera podido, habría invertido antes. Añadió que ahora está encantado de respaldar a OpenAI y de ayudarle a escalar, y que cuando Anthropic se acercó posteriormente, también estuvo dispuesto a participar como inversionista. Aclaró que no piensa repetir el error de no entender la magnitud de capital que exige la nueva generación de laboratorios de IA.
Respecto a los neoclouds, Patel le preguntó por qué Nvidia no usa su balance para convertirse directamente en un hyperscaler o proveedor de nube. Huang respondió que la filosofía interna sigue siendo hacer solo lo indispensable. Si Nvidia no construyera su plataforma de computación, dijo, probablemente nadie más lo haría. Pero si la empresa no operara una nube, sí aparecerían otros jugadores capaces de ocupar ese espacio.
Por eso prefiere apoyar a actores como CoreWeave, Nscale o Nebius, sin convertirse en financiador estructural de toda la industria. Según explicó, Nvidia ayuda a que ciertos participantes despeguen cuando eso resulta necesario para que el ecosistema exista, pero no quiere asumir más funciones de las imprescindibles. También remarcó que procura no “elegir ganadores” y que, si invierte en un actor relevante, intenta apoyar al resto para mantener neutralidad.
Ventas a China: el punto más polémico
La parte más tensa del intercambio llegó con China. Patel planteó un escenario de riesgo: si laboratorios chinos acceden a suficiente cómputo, podrían entrenar modelos con capacidades ofensivas en ciberseguridad y desplegarlos a gran escala. Citó como ejemplo el caso de Mythos Preview de Anthropic, descrito como un sistema capaz de encontrar miles de vulnerabilidades severas en sistemas operativos y navegadores.
Huang rechazó el enfoque de suma cero. Argumentó que China ya tiene una base enorme de computación, abundante energía, una industria de chips gigantesca y aproximadamente 50% de los investigadores de IA del mundo. Dijo que pensar que el país carece de capacidad suficiente es un error. También insistió en que muchas de las grandes mejoras en IA provienen de algoritmos y ciencia computacional, no solo de hardware de punta.
Para el CEO, la idea de sacar a Nvidia del segundo mercado tecnológico más grande del mundo daña a Estados Unidos. Su razonamiento es que eso empuja a desarrolladores y modelos abiertos a optimizarse sobre pilas tecnológicas no estadounidenses. En el largo plazo, afirmó, ceder ese mercado debilita el liderazgo de EE. UU. en chips, herramientas y estándares, justo en una industria donde todas las capas importan.
Huang no negó que Estados Unidos deba mantenerse por delante. Dijo expresamente que el país debe tener primero la mejor tecnología y la mayor cantidad de cómputo posible. Pero defendió una estrategia más matizada: conservar liderazgo local y, al mismo tiempo, competir globalmente. A su juicio, pensar en términos absolutos, como si cualquier venta equivaliera a perder toda la ventaja estratégica, es una visión inmadura del problema.
También sostuvo que comparar chips de IA con uranio enriquecido es un mal paralelismo. Su enfoque fue que la forma de construir un mundo más seguro incluye diálogo entre investigadores, ecosistemas abiertos y herramientas de seguridad basadas en IA, no solo restricciones unilaterales. En su lectura, si la comunidad internacional termina construyendo modelos abiertos sobre un stack rival, ese sería un desenlace peor para Estados Unidos.
Nvidia quiere ser la base industrial de la IA
Hacia el cierre, Huang resumió la ambición de la empresa con un mensaje de estabilidad. Aseguró que los clientes pueden contar con un nuevo salto cada año, citando la hoja de ruta con Vera Rubin, Vera Rubin Ultra y Feynman. Definió esa previsibilidad como una de las mayores fortalezas de Nvidia frente a equipos ASIC menos consolidados o arquitecturas que no pueden prometer una evolución anual con el mismo ritmo.
También dijo que Nvidia no fija precios por subasta cuando hay escasez. Prefiere, según explicó, mantener reglas claras, relaciones duraderas y una lógica más cercana al “primero en ordenar, primero en recibir”, ajustada por la preparación real de centros de datos y otros factores operativos. Presentó esa conducta como parte de la confiabilidad que la empresa quiere proyectar hacia toda la industria.
En conjunto, la conversación mostró a un Huang convencido de que el valor de Nvidia no está en una sola capa, ni en un solo producto, ni en una simple ventaja de litografía. Su apuesta es más ambiciosa: ser la infraestructura base sobre la que se construye la economía global de la IA, desde el cómputo y el software hasta la cadena de suministro y la formación del ecosistema.
Ese mensaje importa más allá del mercado bursátil. Para inversionistas, startups de IA, proveedores de centros de datos y competidores de hardware, la tesis de Huang sugiere que la batalla ya no se libra solo en FLOPS o nodos nanométricos, sino en quién puede coordinar mejor toda la maquinaria industrial que convierte energía en inteligencia utilizable.
Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público.
Este artículo fue escrito por un redactor de contenido de IA y revisado por un editor humano para garantizar calidad y precisión.
ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.
Suscríbete a nuestro boletín
Artículos Relacionados
Bitcoin
Bitdeer dispara producción Bitcoin y consolida posición en el ranking de hash global
Adopción
Starbucks lanza función con ChatGPT para sugerir bebidas personalizadas en su app
Capital de Riesgo
Reid Hoffman respalda medir consumo de tokens de IA y reabre debate sobre productividad en Silicon Valley
Empresas