Por Canuto  

Nvidia aprovechó GTC 2026 para presentar una visión más amplia de su negocio, que ya no gira solo en torno a CUDA y chips para IA. La compañía mostró avances en gráficos con DLSS 5, nuevos sistemas Vera Rubin para procesamiento agentivo, redes NVLink de sexta generación, switches Spectrum-X con óptica coempaquetada y hasta una alianza con Disney y DeepMind para robots interactivos.
***

  • Nvidia presentó DLSS 5 como su nueva generación de “neuro rendering”, una fusión entre gráficos 3D e inteligencia artificial generativa.
  • Jensen Huang destacó a Vera Rubin, NVLink de sexta generación, el sistema Gro y Spectrum-X con CPO como piezas clave para fábricas de IA.
  • La compañía también anunció soporte para OpenClaw y mostró a Olaf, un robot impulsado por Jetson, Omniverse y Newton.

 


Nvidia dejó una larga lista de anuncios durante su presentación en GTC 2026, en una conferencia donde Jensen Huang insistió en que la empresa ya opera sobre tres grandes plataformas. Además de CUDA-X y sus sistemas de cómputo, el CEO subrayó una nueva línea estratégica llamada “AI factories”, o fábricas de IA.

La idea central del evento fue que la inteligencia artificial ya no debe entenderse solo como un modelo que responde preguntas. En la visión de Nvidia, la industria está entrando en una etapa donde la IA razona, utiliza herramientas, descompone tareas y ejecuta trabajo real, desde programación hasta simulación física y automatización empresarial.

En NVIDIA GTC 2026 Keynote: Everything That Happened in 12 Minutes, publicado por CNET, Huang también conectó esa evolución con otra tesis de fondo. Según explicó, el futuro de la IA dependerá de unir datos estructurados con modelos generativos, una combinación que, a su juicio, se repetirá en industria tras industria.

Del renderizado clásico al “neuro rendering” con DLSS 5

Uno de los primeros ejes del keynote fue el regreso de la IA al terreno de los gráficos por computadora. Huang recordó que hace cerca de 10 años Nvidia pensaba que la inteligencia artificial revolucionaría la computación gráfica. Ahora, dijo, esa predicción está tomando una nueva forma.

La novedad fue DLSS 5, descrita por la empresa como su próxima generación de tecnología gráfica. Huang la presentó bajo el concepto de “neuro rendering”, definido como una fusión entre gráficos 3D controlables e inteligencia artificial. La propuesta apunta a combinar la precisión del mundo virtual estructurado con la flexibilidad probabilística de la IA generativa.

El ejecutivo explicó que los gráficos 3D aportan “ground truth” o verdad base del entorno virtual. Esos mundos contienen datos estructurados y controlables. En paralelo, la IA generativa agrega realismo y capacidad de síntesis. El resultado, según Nvidia, es contenido visual que no solo luce mejor, sino que además mantiene control y consistencia.

Más allá de los videojuegos, Huang argumentó que esta lógica de combinar estructura con generación será transversal. En su planteamiento, los datos estructurados constituyen la base de una IA confiable. Para ilustrarlo, mencionó plataformas y herramientas usadas en el procesamiento de dataframes, entre ellas SQL, Spark, Pandas, Velox, Snowflake, Databricks, Amazon EMR, Azure Fabric y Google Cloud BigQuery.

La explicación es relevante porque marca el puente entre consumo y empresa. Nvidia no está presentando a DLSS 5 como un simple salto visual. Lo está integrando dentro de una narrativa mayor, donde la misma mezcla entre control estructurado y generación probabilística serviría tanto para gráficos como para flujos de negocio y automatización corporativa.

La IA como fuerza laboral y el auge del cómputo agentivo

Otro momento importante de la conferencia fue la descripción de cómo la IA está transformando el desarrollo de software. Huang aseguró que el 100% de Nvidia ya utiliza combinaciones de herramientas como Claude Code, Codex y Cursor. Según dijo, hoy no existe en la empresa un ingeniero de software que no esté siendo asistido por uno o varios agentes de IA.

Ese cambio, en palabras del CEO, implica una nueva inflexión tecnológica. Antes, las personas preguntaban a la IA “qué”, “dónde”, “cuándo” o “cómo”. Ahora, la instrucción dominante sería “crear”, “hacer” o “construir”. En esta etapa, la IA recibe contexto, lee archivos, utiliza herramientas y puede descomponer problemas para resolverlos paso a paso.

Huang resumió esa progresión con una secuencia clara. Primero, la IA percibía. Luego generaba. Después razonaba. Ahora, sostuvo, la IA puede hacer trabajo. Esa idea ayuda a entender por qué Nvidia está construyendo infraestructura específica para “agentic processing”, una categoría donde el objetivo no es solo inferir texto o imágenes, sino operar agentes capaces de ejecutar tareas de forma más autónoma.

En ese contexto, Nvidia anunció un nuevo CPU, aunque en el resumen mostrado no se detalló el nombre comercial de esa pieza. Huang sí destacó sus atributos: alto rendimiento de un solo hilo, gran salida de datos, fortaleza en procesamiento de información y eficiencia energética. También afirmó que es el único CPU para centros de datos en el mundo que usa LPDDR5.

La compañía presentó ese procesador como complemento directo del resto de sus racks para cargas agentivas. No se trata de una mejora aislada, sino de una pieza dentro de un sistema mayor, donde CPU, GPU, red y software deben operar como una unidad para sostener agentes de IA a gran escala.

Vera Rubin, enfriamiento líquido y la apuesta por NVLink

Dentro del hardware de próxima generación, Nvidia mostró el sistema Vera Rubin. Huang lo enseñó en escena como una evolución clara frente a generaciones anteriores. Destacó que ahora es un sistema con enfriamiento líquido al 100%, sin cables visibles, y con un proceso de instalación que, según dijo, baja de dos días a solo dos horas.

La empresa también remarcó que se trata de una supercomputadora refrigerada por agua caliente a 45°. El objetivo de ese enfoque es reducir la presión sobre el centro de datos. En términos prácticos, Huang sugirió que menos energía destinada a enfriamiento significa más capacidad disponible para el sistema de cómputo.

Otro componente clave fue NVLink. El CEO afirmó que Nvidia es la única empresa del mundo que ha construido un sistema de “scale-up switching” de sexta generación. Insistió en que no se trata de Ethernet ni de InfiniBand, sino de NVLink, al que describió como extremadamente difícil de desarrollar.

El comentario no fue menor. En la carrera por la infraestructura de IA, la interconexión entre chips y nodos es tan crítica como el rendimiento bruto del acelerador. Nvidia busca diferenciarse no solo por sus GPU, sino por ofrecer la pila completa de cómputo, memoria, red, enfriamiento e integración física.

Huang también enseñó un nuevo sistema Gro con ocho chips Gro, identificado como LP30. Afirmó que el mundo no había visto algo similar y lo contrastó con una generación anterior llamada V1. Según dijo, esta versión corresponde a la tercera generación y ya está en producción en volumen.

Spectrum-X con óptica coempaquetada y producción a escala

La conferencia también sirvió para anunciar el primer switch Spectrum-X con CPO, siglas de co-packaged optics. Nvidia explicó que la óptica va integrada directamente en el chip, lo que permite traducir electrones en fotones e interconectarlos de forma directa con el silicio.

Huang afirmó que Nvidia inventó este proceso de fabricación junto con TSMC y que actualmente es la única empresa en producción con esa tecnología. El nombre mencionado fue “Coupe”, presentado como un desarrollo completamente revolucionario dentro del networking para IA.

La relevancia de este anuncio está en la creciente presión sobre redes y consumo energético dentro de centros de datos. A medida que la IA se expande hacia clústeres más grandes, las mejoras en switches y enlaces ópticos dejan de ser periféricas. Pasan a ser el cuello de botella o la ventaja competitiva.

Por eso, Nvidia insiste cada vez más en el concepto de “AI factory”. No está vendiendo un chip aislado, sino una infraestructura integral para producir inteligencia artificial a escala industrial. Esa narrativa encaja con Vera Rubin, NVLink, Gro y ahora Spectrum-X con CPO.

OpenClaw y la idea de un sistema operativo para agentes

En la parte de software, Huang destacó un proyecto llamado OpenClaw, atribuido a Peter Steyberger. Lo presentó como un desarrollo de enorme impacto y aseguró que se convirtió en el proyecto open source más popular de la historia en apenas unas semanas, incluso superando en ese lapso lo que Linux logró en 30 años.

La magnitud de esa afirmación no vino acompañada de cifras concretas en el resumen, pero sí dejó clara la intención de Nvidia de respaldar la iniciativa. Huang dijo que la compañía estaba anunciando su soporte oficial para OpenClaw.

Según la descripción ofrecida en el escenario, OpenClaw funciona como un sistema agentivo que se conecta con modelos de lenguaje, administra recursos, accede a herramientas, sistemas de archivos y tareas programadas. También puede descomponer prompts en subtareas, invocar subagentes y operar con distintas modalidades de entrada y salida.

Huang señaló que un usuario puede hablarle, gesticular y recibir respuestas por mensajes de texto o correo electrónico. A partir de esa combinación de capacidades, planteó una analogía contundente: OpenClaw sería, en esencia, un sistema operativo para computadoras de agentes, así como Windows ayudó a crear la era de las computadoras personales.

Ese punto es especialmente importante para el ecosistema de IA. La batalla ya no se libra solo en modelos fundacionales. También se extiende a las capas que orquestan agentes, herramientas, archivos, cron jobs, interfaces y ejecución de tareas. Nvidia quiere estar presente en ese nivel del stack.

Olaf, Disney, DeepMind y la robótica basada en Omniverse

La parte más llamativa del cierre fue una demostración robótica con Olaf, el personaje de Disney, presentado como un pequeño robot interactivo. Huang conversó brevemente con él en el escenario y bromeó sobre su tamaño, mientras el personaje respondía en tono humorístico.

Más allá del efecto escénico, la demostración sirvió para mostrar varias piezas de la plataforma de Nvidia en acción. Huang indicó que Olaf funciona con Jetson y que aprendió a caminar dentro de Omniverse. También explicó que su adaptación al mundo físico fue posible gracias a un solver de Newton que corre sobre Nvidia Warp.

Ese trabajo, añadió, fue desarrollado en conjunto con Disney y DeepMind. La escena buscó ilustrar cómo simulación, física e IA pueden converger en robots capaces de interactuar con humanos y desplazarse en entornos reales.

Huang incluso invitó a imaginar el futuro de Disneyland, con robots y personajes caminando por el parque. Con ello, Nvidia cerró GTC 2026 con una señal de hacia dónde quiere expandirse: no solo centros de datos y software empresarial, sino también interfaces físicas, entretenimiento y robótica encarnada.

En conjunto, la presentación dejó una conclusión clara. Nvidia está intentando unir gráficos, datos estructurados, agentes de IA, redes ópticas, supercomputación y robótica bajo una sola narrativa. Si esa estrategia se consolida, la empresa no solo seguirá siendo un proveedor de chips, sino una de las arquitectas centrales de la infraestructura de la IA moderna.


ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.

Suscríbete a nuestro boletín