Nvidia eligió CES 2026 en Las Vegas para presentar Vera Rubin, un superchip que inaugura la plataforma Rubin y que la compañía describe como un salto clave para la IA agente, el razonamiento avanzado y los modelos MoE. Con un diseño de seis chips, nuevos componentes de red y almacenamiento, y la promesa de reducir drásticamente GPUs y costos por token frente a Grace Blackwell, el anuncio llega mientras crece la presión competitiva de AMD y de los propios clientes de nube que desarrollan silicio personalizado.
***
- Nvidia presentó en CES 2026 el superchip Vera Rubin, parte de la nueva plataforma Rubin basada en seis chips.
- La compañía afirma que Rubin reduciría 4 veces las GPUs necesarias para entrenar el mismo modelo MoE versus Blackwell y bajaría 10 veces el costo por token de inferencia.
- Rubin se integra en el servidor Vera Rubin NVL72 con 72 GPUs, escalable a DGX SuperPOD, mientras Nvidia enfrenta competencia de AMD y de chips propios de clientes de nube.
🚀 Nvidia lanza su superchip Vera Rubin en CES 2026
Anuncia una reducción de 4x en GPUs y 10x en costos por token de inferencia
Diseñado para IA avanzada y modelos MoE
El NVL72 integra 72 GPUs, escalable a DGX SuperPOD
Rubin llega en un contexto de alta demanda en… pic.twitter.com/b5h5quczvl
— Diario฿itcoin (@DiarioBitcoin) January 6, 2026
Nvidia dio a conocer en CES 2026 su plataforma Rubin, encabezada por el superchip Vera Rubin, con la que busca sostener el ritmo de lanzamientos anuales y responder a una demanda de cómputo de IA que, según la empresa, sigue en máximos. El anuncio detalla un diseño de seis chips, nuevas piezas de red y almacenamiento, y mejoras de eficiencia que apuntan a bajar la cantidad de GPUs para entrenamiento y el costo por token en inferencia frente a la generación Grace Blackwell.
El gigante de la inteligencia artificial Nvidia anunció el lanzamiento de su superchip de próxima generación Vera Rubin durante CES 2026, el lunes en Las Vegas. De acuerdo con la información publicada por Yahoo Finance, el anuncio posiciona a Rubin como la nueva plataforma de cómputo de la compañía para la siguiente etapa de la IA.
El evento ocurre en un contexto de alta atención para el sector de semiconductores, donde el gasto en infraestructura de IA se volvió un tema central en mercados financieros. Para lectores que vienen del mundo cripto o de memestocks, este tipo de lanzamientos importa porque el desempeño de la IA depende de hardware especializado y eso mueve miles de millones en capex, nube y cadenas de suministro.
Según la empresa, Vera Rubin es uno de los seis chips que componen lo que Nvidia ahora llama su plataforma Rubin. El superchip combina un CPU Vera y dos GPUs Rubin en un único procesador, con la intención de integrar capacidad de cómputo para cargas modernas de entrenamiento e inferencia.
Nvidia presentó Rubin como una base especialmente adecuada para IA de agentes, modelos de razonamiento avanzado y modelos de mezcla de expertos, conocidos como MoE. En estos sistemas, varias IAs “expertas” coexisten, y el modelo enruta una consulta hacia el componente más apropiado dependiendo de la pregunta que haga el usuario.
En el anuncio, el CEO de Nvidia, Jensen Huang, enfatizó el momento del lanzamiento. “Rubin llega en el momento exacto, ya que la demanda de computación de IA para entrenamiento e inferencia está por las nubes”, dijo en un comunicado citado por la cobertura.
Huang también vinculó Rubin con el ritmo de desarrollo de Nvidia y con un salto de escala. “Con nuestro ritmo anual de entrega de una nueva generación de supercomputadoras de IA, y un diseño extremo en seis nuevos chips, Rubin da un gran salto hacia la próxima frontera de la IA”, señaló en la misma comunicación.
Tras el anuncio, las acciones de Nvidia se mantenían ligeramente al alza en las operaciones previas al mercado el martes, según la fuente. El comportamiento es relevante porque los inversores han vigilado de cerca si el boom de infraestructura de IA puede sostenerse sin derivar en sobrecapacidad.
Qué incluye la plataforma Rubin y por qué el diseño importa
Además del CPU Vera y las GPUs Rubin, la plataforma Rubin incorpora otros cuatro chips enfocados en red y almacenamiento. De acuerdo con los detalles del anuncio, estos componentes son Nvidia NVLink 6 Switch, Nvidia ConnectX-9 SuperNIC, Nvidia BlueField-4 DPU y Nvidia Spectrum-6 Ethernet Switch.
En términos sencillos, no se trata solo de un chip más potente. La plataforma busca mover datos dentro y fuera del cómputo de IA con menos fricción, un punto crítico en entrenamiento e inferencia a gran escala donde las interconexiones y el networking determinan tanto el rendimiento como el consumo energético.
Para el público interesado en IA aplicada a mercados y finanzas, este énfasis en red y almacenamiento tiene una lectura directa: el costo de operar modelos grandes no depende únicamente de las GPUs. También se define por la capacidad de alimentar esas GPUs con datos y de coordinar sistemas enormes sin cuellos de botella.
Desde una perspectiva de industria, este tipo de arquitectura también refuerza la estrategia de Nvidia de vender plataformas integrales. El objetivo no es solo competir por un componente, sino por el diseño de referencia completo que terminan comprando los grandes operadores de nube.
Del NVL72 al DGX SuperPOD: el hardware que compran las grandes nubes
Nvidia indicó que todos esos elementos pueden empaquetarse dentro del servidor Vera Rubin NVL72, que combina 72 GPUs en un único sistema. A partir de allí, al unir múltiples NVL72, se configura el DGX SuperPOD, descrito como un tipo de supercomputadora de IA masiva.
La fuente explica que estos enormes sistemas son los que empresas de computación en la nube como Microsoft, Google y Amazon, junto con el gigante de redes sociales Meta, han estado comprando con inversiones de miles de millones de dólares. Ese patrón de gasto es una de las razones por las que el mercado sigue con lupa cada anuncio de nueva generación.
En la práctica, esos despliegues definen quién puede entrenar modelos más grandes o servir inferencia a escala global. También influyen en el costo por consulta de productos de IA, un dato que termina impactando modelos de negocio, márgenes y, en última instancia, valuaciones de empresas tecnológicas.
El anuncio también refuerza la idea de que el rendimiento no se busca solo con más cómputo bruto. La integración, el escalamiento y la forma de interconectar decenas de GPUs en un solo sistema se volvieron factores igual de determinantes para ofrecer servicios estables y económicamente viables.
Almacenamiento de memoria de contexto e inferencia: el otro frente de la eficiencia
Otra pieza que Nvidia destacó fue su almacenamiento de IA, al que llama “Almacenamiento de Memoria de Contexto de Inferencia de Nvidia”. Según la compañía, este componente es necesario para almacenar y compartir datos generados por modelos de IA de billones de parámetros y de razonamiento de múltiples pasos.
El punto es relevante por una razón simple: la inferencia moderna ya no es una pregunta y una respuesta cortas. Con agentes y razonamiento, los modelos trabajan con cadenas de pasos, herramientas y contextos más extensos, y eso eleva la presión sobre memoria y almacenamiento.
En este marco, Nvidia busca que Rubin sea más eficiente que la generación anterior Grace Blackwell. La eficiencia, en un mercado donde el consumo energético y el costo total de propiedad importan cada vez más, se ha convertido en una narrativa central para justificar la adopción de nuevas plataformas.
La empresa sostuvo que Rubin entregará una reducción de 4 veces en el número de GPUs necesarias para entrenar el mismo modelo MoE versus sistemas Blackwell. También afirmó que Rubin proporciona una reducción de 10 veces en los costos de token de inferencia.
Los tokens, tal como recuerda la cobertura, pueden representar palabras, partes de oraciones, imágenes y videos. Los modelos los usan para dividir conceptos en piezas que se procesan mediante tokenización, pero procesar tokens demanda recursos y energía, sobre todo en modelos enormes.
Si el costo por token baja, el impacto potencial se refleja en el costo total de propiedad, un indicador que guía decisiones de compra en centros de datos. La idea de Nvidia es que, al necesitar menos GPUs para el mismo trabajo, las empresas podrían reasignar unidades excedentes a otras tareas y mejorar su eficiencia.
Producción, valuación récord y competencia: el tablero que enfrenta Nvidia
Nvidia afirmó que ha estado probando la plataforma Rubin con socios y que se encuentra en plena producción. Ese detalle es importante porque sugiere un estado avanzado de disponibilidad, un factor que los clientes corporativos suelen ponderar al planificar adquisiciones y calendarios de despliegue.
El liderazgo de Nvidia en semiconductores la ha convertido en la compañía más grande del mundo por capitalización de mercado, con una valoración aproximada de USD $4,6 billones, de acuerdo con la nota. La fuente añade que en octubre su capitalización superó los USD $5 billones, pero luego bajó por preocupaciones sobre el gasto en IA y temores persistentes de una burbuja en el ecosistema.
En paralelo, la empresa enfrenta más competencia de su rival AMD, que está lanzando sus propios sistemas de racks Helios para competir con el NVLink 72. A eso se suma un fenómeno que ha ganado fuerza: algunos de los propios clientes de Nvidia desarrollan chips personalizados para reducir dependencia y costos.
La cobertura menciona que en octubre, Google y Amazon anunciaron que Anthropic ampliará el uso de sus respectivos procesadores personalizados. Anthropic ya los utiliza para alimentar su plataforma Claude, y tanto Google como Amazon tienen participaciones en la empresa de IA.
Aun con esas presiones, la fuente sostiene que ni AMD ni los propios clientes de Nvidia parecen propensos a destronarla de su posición dominante en el corto plazo. Además, si Nvidia logra mantener su calendario de lanzamientos anuales, la brecha tecnológica podría volverse más difícil de cerrar para sus competidores.
Para el mercado, el mensaje de fondo es doble: por un lado, se acelera la carrera por infraestructura de IA; por el otro, crece el escrutinio sobre eficiencia, costos por token y retorno de inversión. En ese equilibrio entre expansión y disciplina de gasto se juega la próxima etapa del ciclo de la IA, y Rubin llega como la nueva apuesta de Nvidia para liderarla.
ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.
Suscríbete a nuestro boletín
Artículos Relacionados
OpenAI anuncia ChatGPT Health, nuevo asistente IA diseñado para consultas sobre salud y bienestar
Alienware y Dell cambian el guión: menos marketing de IA, más portátiles y monitores en CES 2026
DeepSeek enfrenta creciente escrutinio global mientras evoluciona su modelo IA