Nvidia planea destinar USD $26.000 millones durante los próximos cinco años al desarrollo de modelos abiertos de inteligencia artificial, una jugada que podría transformarla de proveedor de chips a actor central en la carrera global por la IA. La apuesta llega junto al lanzamiento de Nemotron 3 Super, un modelo diseñado para sistemas multiagente, contextos extensos y razonamiento técnico avanzado.
***
- Nvidia proyecta invertir USD $26.000 millones en cinco años para impulsar modelos abiertos de IA.
- La empresa lanzó Nemotron 3 Super, con arquitectura híbrida Mamba-Transformer MoE y ventana de contexto de 1 millón de tokens.
- La estrategia busca fortalecer el ecosistema abierto frente al avance de modelos chinos y la oferta cerrada de firmas estadounidenses.
🚨 Nvidia invierte USD $26,000 millones en modelos abiertos de IA
La compañía lanza Nemotron 3 Super, un modelo multiagente avanzado.
Esta movida busca desafiar a OpenAI y modelos de China.
Nvidia busca expandir su influencia más allá de chips.
Un ecosistema abierto… pic.twitter.com/DchXt08Mbr
— Diario฿itcoin (@DiarioBitcoin) March 12, 2026
Nvidia prepara una apuesta de gran escala en inteligencia artificial abierta. La compañía gastará USD $26.000 millones en los próximos cinco años para construir modelos de IA de peso abierto, según una presentación financiera de 2025 y declaraciones de sus ejecutivos.
La decisión no solo amplía el alcance de la empresa más allá del negocio de chips. También la acerca al perfil de un laboratorio de frontera capaz de competir con firmas como OpenAI y DeepSeek, en un momento en que el acceso abierto a modelos avanzados se ha vuelto un punto estratégico en la competencia tecnológica global.
Para entender la magnitud del giro, conviene recordar qué significa un modelo abierto. En este esquema, los pesos del sistema, es decir, los parámetros que determinan su comportamiento, se publican para que desarrolladores, investigadores y startups puedan descargarlos, ejecutarlos y modificarlos en su propia infraestructura o en la nube.
En el caso de Nvidia, la apertura incluye además innovaciones técnicas vinculadas con la construcción y entrenamiento de sus modelos. Eso facilita que terceros adopten, adapten y mejoren los avances de la empresa, algo que puede reforzar su ecosistema de hardware y software en el largo plazo.
Una inversión que redefine la estrategia de Nvidia
El movimiento tiene implicaciones más amplias que un simple lanzamiento de producto. Nvidia ya domina el mercado de chips para entrenar grandes modelos de IA, y muchos de sus clientes destinan miles de millones de dólares a comprar hardware para centros de datos. Ahora busca que esos modelos también estén afinados para su propia plataforma.
Si la estrategia funciona, Nvidia podría fortalecer aún más su posición como proveedor clave de la infraestructura mundial de IA. Un ecosistema de modelos abiertos optimizados para sus chips elevaría la dependencia de startups, universidades y compañías que buscan alternativas a los sistemas cerrados de las grandes tecnológicas.
La apuesta ocurre además en un contexto de creciente presión internacional. En Estados Unidos, los modelos líderes de OpenAI, Anthropic y Google siguen disponibles principalmente a través de la nube o interfaces de chat. En contraste, buena parte de los modelos chinos de alto nivel se distribuyen abierta y gratuitamente.
Esa diferencia de enfoque ha permitido que startups e investigadores de distintos países construyan sobre modelos de empresas como DeepSeek, Alibaba, Moonshot AI, Z.ai y MiniMax. Entre ellos, Qwen de Alibaba ha ganado relevancia por su facilidad de uso, capacidad de modificación y mantenimiento activo.
Bryan Catanzaro, vicepresidente de investigación en aprendizaje profundo aplicado en Nvidia, dijo que la empresa se toma el desarrollo de modelos abiertos mucho más en serio y que está logrando avances importantes. También señaló que a Nvidia le interesa ayudar a que el ecosistema se desarrolle.
Catanzaro, quien se unió a la empresa en 2011 y participó en la transición de Nvidia desde tarjetas gráficas para videojuegos hacia silicio para IA, añadió que la compañía terminó recientemente el preentrenamiento de un modelo de 550.000 millones de parámetros. Nvidia lanzó el primer Nemotron en noviembre de 2023.
Nemotron 3 Super: el nuevo buque insignia abierto
En paralelo con esa estrategia, Nvidia presentó Nemotron 3 Super, su modelo abierto más avanzado hasta la fecha. Según la información reportada por WIRED, el modelo tiene 128.000 millones de parámetros y sería aproximadamente equivalente a la versión más grande de GPT-OSS de OpenAI.
Sin embargo, el blog técnico de Nvidia precisa que Nemotron 3 Super es un sistema de 120.000 millones de parámetros totales y 12.000 millones de parámetros activos. La compañía lo orienta a aplicaciones multiagente complejas, como desarrollo de software y triaje de ciberseguridad, donde la eficiencia computacional es tan importante como la precisión.
La empresa sostiene que este nuevo modelo supera a GPT-OSS y a otras alternativas en varios benchmarks. Nvidia dijo que Nemotron 3 Super obtuvo una puntuación de 37 en el Índice de Inteligencia Artificial, una métrica que evalúa 10 pruebas distintas. GPT-OSS registró 33, aunque varios modelos chinos alcanzaron puntajes superiores.
Además, Nvidia afirmó que el modelo fue probado en secreto en PinchBench, un nuevo benchmark que evalúa la capacidad de controlar OpenClaw, y que allí ocupa el primer lugar. Ese dato apunta a reforzar la narrativa de que Nemotron 3 Super no solo compite en lenguaje, sino también en tareas agenticas con herramientas y ejecución más compleja.
La empresa lanzó el modelo para responder a dos problemas concretos en sistemas de IA agentica. El primero es la llamada explosión de contexto, que aparece cuando los sistemas multiagente reenvían historiales, salidas de herramientas y pasos intermedios, generando hasta 15 veces más tokens que un chat estándar.
El segundo problema es el llamado impuesto de pensar. Nvidia usa esa expresión para describir el alto costo y la lentitud de emplear modelos de razonamiento muy pesados en cada subtarea, algo que vuelve imprácticas muchas aplicaciones multiagente a gran escala.
Arquitectura híbrida para contexto largo y menor costo
Nemotron 3 Super busca mitigar esos límites con una arquitectura híbrida de mezcla de expertos, o MoE. Según Nvidia, esta estructura ofrece más de cinco veces el rendimiento del Nemotron Super anterior y se complementa con una ventana de contexto nativa de 1 millón de tokens para preservar memoria de largo plazo.
La apertura del modelo también es amplia. Nvidia asegura que libera pesos, datasets y recetas de entrenamiento, con la idea de que desarrolladores puedan personalizar, optimizar y desplegar el sistema en su propia infraestructura, maximizando privacidad y seguridad.
Entre las innovaciones destacadas figura el llamado Latent MoE. Antes de tomar decisiones de enrutamiento, los embeddings de tokens se proyectan en un espacio latente comprimido de bajo rango. La computación de expertos se realiza allí y luego los resultados vuelven a la dimensión completa del modelo.
Ese diseño permite convocar cuatro veces más expertos especializados por el mismo costo de inferencia. En teoría, eso mejora la especificidad del enrutamiento y ayuda a elevar el rendimiento sin disparar el gasto computacional.
Otra técnica clave es la predicción de múltiples tokens, o MTP. En lugar de generar un solo token por pasada, el sistema predice varios futuros tokens a la vez. Nvidia asegura que eso reduce de forma drástica el tiempo de generación en secuencias largas y permite decodificación especulativa integrada.
El backbone del modelo combina capas Mamba-2, capas de atención Transformer y capas MoE. Las primeras se encargan de la mayor parte del procesamiento secuencial con complejidad lineal respecto a la longitud de la secuencia. Las segundas preservan la recuperación asociativa exacta, mientras las terceras amplían el número efectivo de parámetros sin el costo de un modelo denso.
Nvidia también afirmó que su enfoque híbrido mejora en cuatro veces la eficiencia de memoria y cómputo. La empresa presentó estas optimizaciones como un modo de equilibrar precisión y eficiencia en razonamiento técnico de alta complejidad.
Una jugada con implicaciones geopolíticas
La iniciativa de Nvidia llega en un momento especialmente delicado para la rivalidad tecnológica entre EE. UU. y China. En enero de 2025, DeepSeek lanzó un modelo abierto de vanguardia usando un enfoque más eficiente que abarató de forma considerable su entrenamiento.
Desde entonces, otros modelos chinos de grandes empresas y startups han ganado espacio en Occidente. El avance no solo amenaza con desplazar software estadounidense en comunidades de investigación, sino que también podría influir en la elección del hardware sobre el que se ejecutan esos sistemas.
Según el reporte, se espera que un próximo modelo de DeepSeek haya sido entrenado exclusivamente con chips de Huawei, empresa china sujeta a sanciones del gobierno estadounidense. Si esa versión confirma un desempeño competitivo, podría impulsar a más startups e investigadores, sobre todo en China, a probar hardware de Huawei.
Ese escenario ayudaría a explicar por qué Nvidia ve valor estratégico en ofrecer una alternativa abierta y potente frente a los modelos chinos. Si el ecosistema abierto de mayor crecimiento se inclina hacia plataformas rivales, la ventaja de Nvidia como estándar de oro en entrenamiento de IA podría erosionarse con el tiempo.
Catanzaro dijo que Nvidia es una empresa estadounidense, pero trabaja con compañías de todo el mundo, y que está en su interés hacer que el ecosistema sea diverso y fuerte en todas partes. La frase deja ver una visión que combina expansión comercial con posicionamiento tecnológico internacional.
Algunos expertos coinciden en que la apertura se ha convertido en un frente clave de la competencia. Nathan Lambert, investigador de IA en el Instituto Allen para la IA y líder del Proyecto ATOM, afirmó que es un gran fan de Nemotron y añadió que el gobierno de Estados Unidos también debería financiar modelos abiertos.
Andy Konwinski, científico en computación, empresario y líder del Instituto Laude, organización sin fines de lucro enfocada en promover la apertura en la IA, sostuvo que la inversión de Nvidia es altamente significativa por la posición de la empresa en el nexo de la investigación en IA. A su juicio, se trata de una señal sin precedentes de su creencia en la apertura.
En conjunto, la decisión muestra que la carrera por la IA ya no depende solo de quién tenga el mejor modelo cerrado. También importa quién logra atraer al ecosistema de desarrolladores, investigadores y empresas que construirán la próxima generación de herramientas sobre infraestructura abierta.
Este artículo fue escrito por un redactor de contenido de IA
Imagen de Unsplash
ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.
Suscríbete a nuestro boletín
Artículos Relacionados
Bitcoin
Strategy habría comprado 7.000 BTC con STRC, pero advierten riesgos tras rendimiento de 11,5%
Empresas
Netflix habría pagado USD $600 millones por la startup de IA de Ben Affleck
Empresas
Meta acelera sus chips de IA propios para depender menos de Nvidia
Empresas