Por Canuto  

Amazon Web Services presentó en re:Invent 2025 su nuevo chip de inteligencia artificial trainium3 y el sistema ultraServer trainium3, con mejoras notables en rendimiento, memoria y eficiencia energética, mientras adelanta trainium4, un procesador en desarrollo que promete interoperar con GPU Nvidia mediante NVLink fusion y aprovechar el ecosistema CUDA para atraer más cargas de trabajo de IA a la nube de Amazon.

***

  • AWS lanza el chip de IA trainium3 y el sistema ultraServer trainium3 con proceso de 3 nanómetros y tecnología de red propia.
  • El nuevo sistema promete más de 4 veces más velocidad, 4 veces más memoria y 40% más eficiencia energética frente a la generación anterior.
  • Amazon adelanta trainium4, en desarrollo, que soportará NVLink fusion de Nvidia y buscará atraer grandes aplicaciones de IA basadas en CUDA.

Amazon Web Services (AWS) dio un paso más en su estrategia de diseñar sus propios chips de inteligencia artificial con el lanzamiento de trainium3, una nueva generación de procesadores de entrenamiento, y el sistema ultraServer trainium3. Al mismo tiempo, la compañía adelantó detalles de trainium4, su próximo chip en desarrollo que promete interoperar con la tecnología de Nvidia, el líder actual en hardware de IA.

El anuncio se realizó el martes durante AWS re:Invent 2025, la conferencia tecnológica anual de la filial de computación en la nube de Amazon. El movimiento refuerza la apuesta del gigante por reducir su dependencia de proveedores externos y ofrecer a sus clientes opciones de hardware de alto rendimiento para inteligencia artificial generativa y otros modelos avanzados.

Para los mercados de criptoactivos, blockchain y trading algorítmico, la evolución de estos chips es clave. La disponibilidad de cómputo especializado y más eficiente determina la velocidad a la que se pueden entrenar modelos de predicción, gestionar riesgos o analizar grandes volúmenes de datos on-chain.

En este contexto, la hoja de ruta de AWS con trainium3 y trainium4 apunta a consolidar una infraestructura de centros de datos más potente y, a la vez, menos costosa y menos intensiva en consumo energético.

aws estrena ultraServer trainium3 y un nuevo chip de 3 nanómetros

Durante re:Invent 2025, AWS lanzó formalmente ultraServer trainium3, un sistema diseñado en torno al nuevo chip trainium3 de 3 nanómetros. Además de incorporar el procesador de última generación, el sistema integra tecnología de redes propia de AWS, pensada para optimizar el tráfico de datos entre chips y servidores.

La compañía señaló que trainium3 corresponde a la tercera generación de sus chips para entrenamiento de IA, tras años de desarrollo interno. Su objetivo es ofrecer una alternativa competitiva frente a soluciones externas, sin perder flexibilidad ni rendimiento para cargas de trabajo complejas.

Según la información recogida por TechCrunch, AWS afirma que el nuevo chip y el sistema asociado proporcionan grandes mejoras tanto para entrenamiento como para inferencia. Esto es relevante porque muchos proveedores solo optimizan uno de los dos procesos, mientras que el ecosistema de Amazon busca abarcar todo el ciclo de vida del modelo.

El uso de proceso de fabricación de 3 nanómetros también refleja la intención de AWS de competir en la frontera tecnológica del hardware de alto rendimiento. Esta miniaturización permite, en teoría, más potencia de cómputo con menor consumo energético por unidad de trabajo realizada.

rendimiento y escalabilidad: 4 veces más rápido y hasta 1 millón de chips

Uno de los mensajes centrales del anuncio fue la mejora en rendimiento. AWS sostiene que el sistema ultraServer trainium3 es más de cuatro veces más rápido que la generación anterior, y que también ofrece cuatro veces más memoria. Estas mejoras se aplican tanto al entrenamiento de grandes modelos de lenguaje como a la fase de inferencia, donde se ejecutan las aplicaciones en producción.

La memoria adicional resulta clave para manejar modelos de gran tamaño sin necesidad de fragmentarlos en exceso entre múltiples chips. Esto favorece la estabilidad y reduce cuellos de botella en el entrenamiento de arquitecturas avanzadas, como los LLM que se usan en trading automatizado, asistentes inteligentes y análisis de datos financieros.

AWS también destacó la capacidad de escalar estos sistemas. Miles de ultraServers pueden enlazarse para conformar una aplicación con hasta 1 millón de chips trainium3, una cifra que multiplica por 10 la capacidad máxima de la generación previa. Esta escala permite soportar proyectos de IA masiva que requieren enormes volúmenes de cómputo distribuido.

Cada ultraServer puede alojar 144 chips, según la empresa. Esta densidad es un elemento estratégico para centros de datos, donde el espacio físico, el consumo energético y la refrigeración se han convertido en factores críticos de diseño y costo.

eficiencia energética y reducción de costos para clientes de IA

Además del rendimiento bruto, AWS subrayó la mejora en eficiencia energética. De acuerdo con la información citada por TechCrunch, los chips y sistemas de tercera generación son un 40% más eficientes en consumo de energía que la generación anterior. En un contexto de centros de datos cada vez más grandes y demandantes, esta reducción resulta especialmente relevante.

Los centros de datos de IA requieren cantidades crecientes de electricidad, y muchos países enfrentan ya limitaciones en infraestructura eléctrica. Se estima que el avance de la IA generativa presiona la demanda energética global, elevando los costos operativos y la huella ambiental de las grandes nubes públicas.

AWS, uno de los mayores operadores de centros de datos del mundo, tiene un interés directo en mitigar ese impacto. Menos energía por unidad de cómputo se traduce en menores gastos propios y en una oferta potencialmente más competitiva para sus clientes empresariales.

En línea con la filosofía de Amazon, conocida por su enfoque obsesivo en los costos, la compañía promete que estos sistemas también ayudan a reducir la factura de sus clientes de IA en la nube. Según la empresa, organizaciones que ya usan trainium3 han logrado recortes significativos en el costo de inferencia.

clientes tempranos: anthropic, karakuri, splashMusic y decart

TechCrunch indica que varios clientes de AWS ya han estado utilizando el chip y el sistema de tercera generación. Entre ellos se encuentran Anthropic, empresa de IA en la que Amazon también es inversionista, la firma japonesa LLM Karakuri, así como SplashMusic y Decart.

Estas organizaciones se han beneficiado de las capacidades de trainium3 para disminuir el costo de ejecutar modelos en producción. El costo de inferencia suele ser una preocupación central, especialmente para servicios que procesan millones de consultas diarias, como chatbots, asistentes virtuales o motores de recomendación.

Para empresas de IA, fintech o criptomercados, la ecuación es clara: si el costo por consulta o por predicción baja, se amplía el margen para ofrecer servicios más competitivos o para reinvertir en nuevos modelos de mayor complejidad.

La adopción temprana por parte de actores relevantes también sirve a AWS como validación comercial y técnica de su solución. Casos de uso exitosos generan confianza en otros potenciales clientes que evalúan migrar cargas de trabajo desde GPU tradicionales hacia alternativas como trainium.

trainium4: interoperabilidad con Nvidia y apuesta por NVLink fusion

Más allá del presente inmediato con trainium3, AWS utilizó el escenario de re:Invent para mostrar parte de su hoja de ruta. La compañía confirmó que ya está en desarrollo trainium4, su siguiente chip de entrenamiento de IA, con la promesa de ofrecer otro salto importante en rendimiento.

El aspecto más llamativo para la industria es que trainium4 soportará la tecnología de interconexión de chips de alta velocidad NVLink fusion de Nvidia. Esta tecnología permite una comunicación de muy baja latencia y alto ancho de banda entre GPU, y es una pieza central del ecosistema de hardware de Nvidia para IA.

Según la información publicada por TechCrunch, esta compatibilidad significará que los sistemas de AWS potenciados por trainium4 podrán interoperar y extender su rendimiento junto con GPU de Nvidia. Al mismo tiempo, seguirán usando la tecnología de racks de servidores más económica desarrollada por Amazon.

En la práctica, esto abre la puerta a arquitecturas híbridas donde chips trainium4 y GPU Nvidia trabajen en conjunto. De este modo, los clientes podrían aprovechar lo mejor de ambos mundos, sin tener que reescribir por completo su infraestructura ni sus modelos.

cuda como estándar de facto y la estrategia de atracción hacia la nube de AWS

Un elemento clave para entender esta jugada es el peso de CUDA, la Arquitectura de Dispositivo Unificado de Cómputo de Nvidia. TechCrunch recuerda que CUDA se ha convertido en el estándar de facto que la mayoría de aplicaciones de IA modernas soportan y para el cual se optimizan.

Al anunciar que los sistemas potenciados por trainium4 podrán integrarse con tecnologías de Nvidia, AWS envía una señal clara al ecosistema de desarrolladores. El objetivo es facilitar que grandes aplicaciones de IA diseñadas pensando en GPU Nvidia y CUDA puedan migrar o extenderse con mayor facilidad hacia la nube de Amazon.

Esto podría reducir las fricciones para empresas que tienen ya grandes inversiones en software basado en CUDA, pero que buscan opciones adicionales de cómputo, mejores precios o mayor disponibilidad de capacidad en la nube.

Si la integración resulta efectiva, AWS podría capturar una porción mayor de las cargas de trabajo de IA de alto valor, incluyendo modelos usados en finanzas cuantitativas, análisis de sentimientos de mercado cripto o detección de fraude en exchanges.

cronograma y perspectivas para la guerra de chips de IA

Amazon no anunció un calendario específico para el lanzamiento de trainium4. TechCrunch señala que, si la compañía repite el patrón de ciclos de producto anteriores, es probable que se conozcan más detalles en la próxima edición de re:Invent.

La ausencia de una fecha concreta refleja la complejidad del desarrollo de chips avanzados, especialmente en un mercado donde la demanda de capacidad de IA crece más rápido que la oferta. También deja margen a AWS para ajustar el diseño final a medida que evolucione la competencia.

La guerra por el dominio del cómputo de IA se ha convertido en uno de los frentes tecnológicos más importantes del momento. Nvidia sigue liderando con sus GPU y su ecosistema de software, pero gigantes como Amazon, Google y otros proveedores de nube están invirtiendo miles de millones en soluciones propias.

Para los usuarios finales, desde startups de cripto y DeFi hasta bancos y gestores de fondos cuantitativos, el resultado puede traducirse en más opciones de hardware, mejor rendimiento y, potencialmente, menores costos de entrenamiento e inferencia en la nube.

En este escenario competitivo, el lanzamiento de trainium3 y la promesa de un trainium4 que “hable el idioma” de Nvidia mediante NVLink fusion y soporte del ecosistema CUDA posicionan a AWS como un actor que no solo quiere competir, sino también coexistir con las tecnologías dominantes en IA.


Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público.

Este artículo fue escrito por un redactor de contenido de IA y revisado por un editor humano para garantizar calidad y precisión.


ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.

Suscríbete a nuestro boletín