Meta firmó un acuerdo para usar millones de CPU Graviton de Amazon Web Services en sus crecientes cargas de inteligencia artificial, en una jugada que refuerza la posición de AWS frente a Google Cloud y vuelve a poner en el centro del debate qué tipo de chips dominarán la siguiente fase de la IA.
***
- Meta usará millones de chips AWS Graviton, una CPU basada en ARM, para sus necesidades de inteligencia artificial.
- El acuerdo fortalece a Amazon frente a Google Cloud, con quien Meta ya había firmado un contrato de seis años por USD $10.000 millones en agosto pasado.
- Amazon busca demostrar que sus chips propios pueden competir en precio y rendimiento en la nueva ola de cargas ligadas a agentes de IA.
Amazon Web Services (AWS) consiguió una victoria importante en la carrera por la infraestructura de inteligencia artificial (IA). Meta firmó un acuerdo para utilizar millones de chips AWS Graviton, una familia de CPU basadas en arquitectura ARM, con el objetivo de atender sus crecientes necesidades de cómputo vinculadas a la IA.
La noticia resulta relevante porque sugiere un cambio en la conversación sobre hardware para inteligencia artificial. Durante los últimos años, el foco estuvo casi por completo en las GPU, sobre todo por su papel central en el entrenamiento de grandes modelos. Sin embargo, la siguiente fase del mercado empieza a abrir espacio para otros tipos de procesadores.
Según explicó TechCrunch, AWS Graviton no es una GPU, sino una CPU, es decir, un chip orientado a tareas generales de computación. Aun así, Amazon sostiene que la versión más reciente de Graviton fue diseñada de forma específica para manejar necesidades de cómputo relacionadas con inteligencia artificial.
Ese detalle importa porque los llamados agentes de IA están alterando la naturaleza de las cargas de trabajo. Una vez entrenados los modelos, el uso real de estas herramientas puede exigir razonamiento en tiempo real, redacción de código, búsqueda de información y coordinación de tareas de varios pasos, procesos que consumen muchos recursos y que no dependen exclusivamente de las GPU.
Una señal de cambio en el mercado de chips para IA
La apuesta de Meta refleja cómo está evolucionando la demanda tecnológica en los grandes centros de datos. Si bien las GPU siguen siendo el estándar para entrenar modelos avanzados, la etapa posterior, conocida como inferencia, y la expansión de agentes autónomos están creando una mezcla más diversa de necesidades de hardware.
En términos simples, el entrenamiento consiste en construir o ajustar el modelo, mientras que la inferencia ocurre cuando ese modelo ya responde instrucciones y procesa solicitudes. En esa fase, la eficiencia de costos y la capacidad de escalar pueden ser tan importantes como la potencia bruta.
Amazon intenta posicionar a Graviton en ese nuevo terreno. El acuerdo con Meta le da a la compañía una vitrina de alto nivel, ya que Meta es uno de los grupos que más invierte en infraestructura de IA a gran escala. Para AWS, mostrar a un cliente de ese tamaño usando sus CPU propias puede ser tan valioso como la venta misma.
También es una señal para el mercado de que la batalla por la IA ya no se limita a quién tiene más GPU. El valor de una plataforma de nube dependerá cada vez más de su capacidad para ofrecer un portafolio amplio de chips especializados, con una relación de precio y rendimiento atractiva para empresas que mueven enormes volúmenes de cargas de trabajo.
Meta redistribuye gasto entre grandes proveedores de nube
El acuerdo también tiene implicaciones competitivas para el negocio de nube. Más dinero de Meta volverá ahora a AWS en lugar de terminar en manos de rivales como Google Cloud. Ese detalle es significativo porque Meta ya había comenzado a diversificar su dependencia entre distintos proveedores.
En agosto del año pasado, Meta firmó un acuerdo de seis años por USD $10.000 millones con Google Cloud. Hasta entonces, la empresa había sido principalmente cliente de AWS, aunque también utilizaba Microsoft Azure.
El momento del anuncio tampoco pasó desapercibido. AWS comunicó el acuerdo justo cuando concluía la conferencia Google Cloud Next, en una sincronización que puede leerse como un gesto competitivo hacia su rival directo en el mercado de infraestructura para inteligencia artificial.
Google, por su parte, también desarrolla sus propios chips personalizados para IA y presentó nuevas versiones durante ese evento. Esto deja claro que la pelea entre hyperscalers ya no se limita al software de nube o a la capacidad de centros de datos, sino que se extiende a la propiedad y diseño del silicio.
Graviton, Trainium y la presión sobre el silicio propio de Amazon
Amazon no solo fabrica CPU. La empresa también cuenta con Trainium, su propia GPU de inteligencia artificial. Pese al nombre, ese chip se utiliza tanto para entrenamiento como para inferencia, es decir, en la etapa posterior al entrenamiento cuando el modelo procesa prompts activamente.
Sin embargo, una parte importante de la capacidad futura de Trainium ya quedó asociada a otro gran cliente. A comienzos de este mes, Anthropic anunció un acuerdo para ejecutar sus cargas de trabajo en AWS durante años, con un enfoque particular en Trainium.
Ese pacto contempla un gasto de USD $100.000 millones durante 10 años por parte del fabricante de Claude para operar en AWS. A cambio, Amazon acordó invertir otros USD $5.000 millones en Anthropic, elevando su inversión total en la compañía a USD $13.000 millones.
En ese contexto, el convenio con Meta ayuda a Amazon a exhibir fortaleza en otra pieza de su oferta de chips propios. Si Trainium quedó asociado de forma muy visible al crecimiento de Anthropic, Graviton ahora puede presentarse como una respuesta concreta a la demanda de otro gigante tecnológico con ambiciones masivas en IA.
La nueva competencia con Nvidia e Intel
El movimiento también coloca a Amazon en una competencia más directa con fabricantes tradicionales y nuevos referentes del sector. Los chips Graviton compiten con la nueva CPU Vera de Nvidia, que igualmente está basada en ARM y fue concebida para manejar cargas de trabajo vinculadas con agentes de inteligencia artificial.
La diferencia entre ambos enfoques es clave. Nvidia vende sus chips y sistemas de IA a empresas y proveedores de nube, incluido AWS. Amazon, en cambio, no comercializa sus chips de forma abierta, sino que ofrece acceso exclusivamente a través de su plataforma de nube.
Ese modelo le permite a AWS integrar hardware y servicio bajo un mismo techo, pero también eleva la presión sobre sus equipos de ingeniería. Si Amazon quiere convencer a grandes clientes de que su silicio interno puede competir frente a Nvidia o Intel, necesita demostrarlo con rendimiento consistente, escala y ahorro de costos.
A principios de este mes, el CEO de Amazon, Andy Jassy, apuntó precisamente en esa dirección en su carta anual a los accionistas. Allí sostuvo que las empresas buscan mejores relaciones entre precio y rendimiento para la inteligencia artificial, y dejó claro que Amazon pretende ganar acuerdos apoyándose en esa propuesta de valor.
La exigencia ahora recae sobre el equipo interno de diseño de chips de Amazon, responsable de cumplir con expectativas cada vez más altas. La empresa viene promoviendo con fuerza esa capacidad, incluso abriendo recientemente una ventana a su laboratorio de desarrollo de semiconductores.
En conjunto, el acuerdo con Meta muestra que la carrera de la IA entra en una etapa más compleja. Ya no se trata solo de entrenar modelos más grandes, sino de sostener a escala el uso cotidiano de agentes y sistemas inteligentes. En esa transición, CPU, GPU y arquitecturas especializadas convivirán en una competencia feroz por convertirse en la base de la próxima generación de servicios de IA.
Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público
Este artículo fue escrito por un redactor de contenido de IA
ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.
Suscríbete a nuestro boletín
Artículos Relacionados
Europa
Regulador europeo alerta que la IA acelera los ciberataques y eleva el riesgo para mercados
IA
Canonical lanza Ubuntu 26.04 LTS con IA nativa, Linux 7.0 y más seguridad empresarial
IA
DeepSeek lanza V4 Preview con contexto de 1M y pesos abiertos para competir con modelos cerrados
IA