Jensen Huang expuso una de las radiografías más completas del momento actual de la inteligencia artificial: Nvidia ya no se concibe como una firma de chips, sino como la arquitecta de fábricas de IA a escala de rack, impulsadas por CUDA, agentes, energía y una cadena de suministro global cada vez más exigida.
***
- Jensen Huang explicó por qué Nvidia pasó de optimizar GPUs a diseñar sistemas completos con CPU, memoria, red, energía, enfriamiento y software.
- El CEO sostuvo que la IA ya entró en una nueva fase dominada por agentes, escalado en inferencia y fábricas de tokens, con la energía como reto clave.
- También defendió que la mayor ventaja competitiva de Nvidia sigue siendo la base instalada de CUDA y la confianza de su ecosistema global.
Jensen Huang, CEO de Nvidia, ofreció una extensa visión sobre el presente y futuro de la inteligencia artificial, la infraestructura de cómputo y el papel estratégico de su empresa en ese proceso. En la conversación Jensen Huang: NVIDIA – The $4 Trillion Company & the AI Revolution | Lex Fridman Podcast #494, publicada por Lex Fridman, el directivo sostuvo que Nvidia dejó atrás la idea de ser solo una compañía de chips para convertirse en una firma centrada en diseñar sistemas completos de computación.
Su tesis principal es que el salto actual de la IA exige algo más que GPUs potentes. Requiere una integración extrema entre GPU, CPU, memoria, redes, almacenamiento, energía, refrigeración, software, racks, pods y centros de datos enteros. Para Huang, ese “co-diseño extremo” es una respuesta directa a un problema técnico: los modelos y cargas modernas ya no caben en una sola computadora ni pueden acelerarse solo con una sola GPU.
El ejecutivo explicó que el reto consiste en distribuir algoritmos, fragmentar datos, dividir modelos y reorganizar canales de procesamiento sin que la red, la memoria o el resto del sistema se conviertan en cuellos de botella. En ese contexto, citó la lógica de la ley de Amdahl para ilustrar que acelerar una sola parte de una carga de trabajo ya no basta cuando el sistema completo depende de muchas otras piezas.
Desde esa perspectiva, Nvidia no se limita a fabricar componentes. Huang dijo que la compañía diseña toda la pila, desde la arquitectura y los chips hasta el sistema operativo, los algoritmos y las aplicaciones. También afirmó que ese nivel de integración exige una estructura corporativa poco convencional, con un equipo directivo muy amplio y discusiones en las que múltiples especialistas participan de forma simultánea, en lugar de operar con reuniones aisladas entre un jefe y un subordinado.
De acelerador gráfico a plataforma global de computación
Huang repasó cómo Nvidia pasó de ser un fabricante de aceleradores gráficos a una plataforma más amplia de computación acelerada. Recordó que la empresa entendió temprano que un acelerador demasiado especializado tiene un mercado estrecho, pero que una compañía de cómputo demasiado generalista pierde ventaja frente a especialistas. Según su relato, Nvidia avanzó paso a paso por una ruta estrecha entre ambas tensiones.
En esa transición, destacó hitos como el shader programable, la incorporación de FP32 compatible con IEEE y la evolución desde Cg hasta CUDA. El momento más arriesgado, según dijo, fue llevar CUDA a GeForce. Esa decisión amplió la base instalada para desarrolladores, pero elevó tanto los costos de las GPUs de consumo que terminó devorando prácticamente todos los dólares de margen bruto de la empresa en ese momento.
Huang recordó que Nvidia llegó a ver caer su capitalización desde cerca de USD $8.000.000.000 a aproximadamente USD $1.500.000.000 tras ese giro estratégico. Aun así, defendió la jugada porque una plataforma de cómputo necesita una gran base instalada para atraer desarrolladores. En su visión, la historia de la informática muestra que la adopción pesa más que la elegancia de una arquitectura.
Por eso insistió en que la mayor ventaja de Nvidia hoy no es solo su tecnología, sino la base instalada de CUDA. A su juicio, esa comunidad de desarrolladores, reforzada por la confianza en que Nvidia seguirá mejorando la plataforma, constituye el principal foso competitivo de la empresa. También agregó que esa ventaja se amplifica con la velocidad de ejecución de Nvidia y con la presencia de su arquitectura en nubes, empresas, supercomputadoras, automóviles, robots e incluso satélites.
La era de los agentes, el escalado y las fábricas de IA
Otro eje central de la entrevista fue la evolución de las llamadas leyes de escalado en IA. Huang dijo que ya no se trata solo del escalado en preentrenamiento. Según su esquema, hoy conviven cuatro dinámicas: preentrenamiento, post-entrenamiento, escalado en tiempo de prueba y escalado agéntico.
Sobre el preentrenamiento, sostuvo que la industria exageró al asumir que la escasez de datos humanos de alta calidad frenaría el progreso. En su opinión, el uso de datos sintéticos cambia radicalmente ese panorama y hace que el límite deje de ser el dato para pasar a ser el cómputo disponible. Más adelante, defendió que la inferencia nunca iba a ser una tarea “ligera”, porque razonar, planificar y buscar soluciones consume mucha más computación de la que varios analistas suponían.
La siguiente frontera, afirmó, es la de los agentes. Huang describió un escenario en el que un modelo ya no responde solo como un sistema aislado, sino que investiga, consulta bases de datos, usa herramientas y crea subagentes. En ese marco, comparó el escalado agéntico con contratar más empleados para ampliar la capacidad de una organización. Para él, multiplicar agentes es una forma más natural de ampliar inteligencia que intentar exprimir una sola instancia de modelo.
Ese cambio, agregó, modifica también la arquitectura necesaria. Puso como ejemplo la transición entre racks como Grace Blackwell y la nueva generación Vera Rubin. Según explicó, el primero fue concebido para procesar modelos MoE en inferencia, mientras que el segundo suma aceleradores de almacenamiento, nuevos CPUs y componentes orientados al uso intensivo de herramientas por parte de agentes. En su lectura, esto equivale a “reinventar la computadora” para una era de trabajadores digitales.
Huang fue todavía más lejos al señalar que ya se puede hablar de AGI si se define el término como la capacidad de ejecutar ciertas funciones económicas relevantes. Incluso planteó que ya es posible imaginar sistemas capaces de lanzar una aplicación viral, monetizarla y crear un negocio de más de USD $1.000.000.000, aunque aclaró que eso no equivale a construir una empresa como Nvidia. Allí marcó una diferencia importante entre inteligencia funcional y humanidad.
Energía, cadena de suministro y centros de datos
Si la IA se convierte en infraestructura industrial, el siguiente cuello de botella es evidente: la energía. Huang reconoció que el suministro eléctrico es una preocupación constante, pero afirmó que Nvidia busca combatir ese límite con más eficiencia en tokens por segundo por vatio. Según dijo, aunque el precio de sus sistemas aumenta, la capacidad de generar tokens mejora a tal ritmo que el costo por token cae de manera muy acelerada.
En su balance histórico, señaló que mientras la ley de Moore habría mejorado la computación unas 100 veces en una década, Nvidia logró escalarla hasta 1.000.000 de veces en diez años mediante co-diseño extremo. Aun así, defendió que la respuesta no pasa solo por chips más eficientes. También hace falta más energía disponible, y en ese terreno planteó ideas como aprovechar mejor la capacidad ociosa de las redes eléctricas.
Huang sostuvo que las redes están diseñadas para picos extremos que ocurren muy pocas veces al año. Por eso propuso contratos y arquitecturas de centros de datos capaces de degradar su rendimiento de forma elegante cuando la red necesite priorizar hospitales, aeropuertos u otra infraestructura crítica. En su visión, usar parte de esa energía ociosa permitiría acelerar el despliegue de fábricas de IA sin esperar años a nuevas expansiones de red.
El otro gran tema es la cadena de suministro. El directivo afirmó que ninguna empresa en la historia ha crecido a la escala de Nvidia mientras acelera ese mismo crecimiento. Explicó que dedica buena parte de su tiempo a alinear a ejecutivos de proveedores y clientes sobre lo que viene, con el fin de que inviertan a tiempo. Como ejemplo, mencionó que hace tres años persuadió a varios líderes de la industria DRAM para apostar por memorias HBM y LPDDR en centros de datos, pese a que entonces parecía una idea poco intuitiva.
También describió la complejidad física del hardware que Nvidia está construyendo. Aseguró que un rack Vera Rubin reúne entre 1.300.000 y 1.500.000 componentes y depende de unos 200 proveedores. Añadió que cada pod integra 40 racks, cerca de 20.000 dies de Nvidia, más de 1.100 GPUs Rubin, 60 exaflops y 10 petabytes por segundo de ancho de banda a escala. Para dar contexto, señaló que la empresa probablemente tendrá que producir alrededor de 200 pods por semana.
China, TSMC y el futuro económico de Nvidia
Huang también dedicó espacio a China y a TSMC. Sobre China, afirmó que cerca del 50% de los investigadores de IA del mundo son chinos, y que el país combina formación sólida en ciencia y matemáticas, una cultura favorable a la ingeniería, competencia feroz entre provincias y empresas, y una dinámica muy proclive al código abierto. A su juicio, esa mezcla explica por qué se trata hoy del país que innova más rápido del mundo.
En cuanto a TSMC, rechazó la idea de que su valor dependa solo de tener mejor tecnología de transistores o empaquetado. Dijo que su verdadero poder está en la capacidad de coordinar la demanda cambiante de cientos de empresas con altos niveles de rendimiento, costos, servicio y confianza. Incluso señaló que Nvidia y TSMC han hecho negocios por décadas sin necesidad de un contrato formal, apoyados en una relación de confianza construida durante unos 30 años.
El directivo también reveló que Morris Chang le ofreció en 2013 la posibilidad de convertirse en CEO de TSMC. Confirmó que la historia es cierta, que se sintió profundamente honrado, pero que la rechazó porque veía el trabajo en Nvidia como su responsabilidad central y porque ya tenía una imagen muy clara de lo que la empresa podía llegar a ser.
Esa visión incluye una ambición todavía mayor. Huang sostuvo que Nvidia ya es la mayor compañía de computación de la historia y que su crecimiento futuro es, en su opinión, “inevitable”. La base de ese argumento es que la computación está dejando de ser un sistema de almacenamiento y recuperación de archivos para transformarse en un sistema generativo, contextual y conectado a ingresos. En vez de “almacenes”, dijo, ahora se están construyendo “fábricas”.
Desde esa lógica, insistió en que los tokens serán un producto económico segmentado, con distintas calidades y precios, de forma parecida a otros bienes tecnológicos premium. También afirmó que una economía más dependiente de la generación de inteligencia demandará mucha más computación que la economía basada en almacenamiento. En ese escenario, Nvidia no se ve compitiendo por mercado existente, sino ayudando a crear una nueva industria.
Hacia el final, Huang insistió en separar inteligencia de humanidad. Dijo que la inteligencia es una capacidad funcional que puede convertirse en commodity, mientras que rasgos como carácter, compasión, generosidad y humanidad pertenecen a otra categoría. Para él, la masificación de la inteligencia no debería generar solo ansiedad, sino también una oportunidad para revalorizar lo propiamente humano.
En paralelo, ofreció un consejo práctico para trabajadores y estudiantes preocupados por la automatización. Recomendó aprender a usar IA cuanto antes, sin importar la profesión. Sostuvo que quien domine estas herramientas tendrá ventaja frente a quien las ignore, tanto en empleos de oficina como en oficios técnicos. Su mensaje final fue claro: si una tarea puede automatizarse, conviene entender esa transformación desde dentro en vez de esperar a padecerla desde fuera.
Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público.
Este artículo fue escrito por un redactor de contenido de IA y revisado por un editor humano para garantizar calidad y precisión.
ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.
Suscríbete a nuestro boletín
Artículos Relacionados
Bancos y Pagos
Revolut dispara sus ganancias a USD $2.300 millones en 2025 y acelera su apuesta cripto
Criptomonedas
Estafas cripto con IA baten récord y OpenClaw aparece en el centro del nuevo fraude
Adopción
Gigante de pensiones evalúa ofrecer Bitcoin a sus 2,2 millones de afiliados en Australia
Análisis de mercado