Por Angel Di Matteo   𝕏 @shadowargel

Meta busca asegurar capacidad de cómputo para su visión de “superinteligencia personal” con un acuerdo que podría llegar a USD $100.000 millones en chips de AMD, mientras el mercado de inferencia impulsa el auge de CPUs y la carrera por centros de datos eleva el foco sobre energía y dependencia de Nvidia.
***

  • Meta planea comprar GPUs MI540 y CPUs de última generación de AMD en un acuerdo multianual que podría escalar hasta USD $100.000 millones.
  • AMD emitió a Meta una orden por hasta 160 millones de acciones (cerca de 10% de la empresa) a USD $0,01, sujeta a hitos y al precio bursátil de AMD.
  • La compra implicaría alrededor de 6 gigavatios de demanda energética en centros de datos, en medio del plan de Meta de invertir al menos USD $600.000 millones en infraestructura de IA.

 

Meta, la empresa matriz de Facebook, Whatsapp e Instagram, planea comprar potencialmente hasta USD $100.000 millones en chips de AMD, en un acuerdo multianual que busca garantizar cómputo para sus sistemas de inteligencia artificial. Según informaron las compañías el martes, el volumen sería suficiente para impulsar alrededor de 6 gigavatios de demanda de energía en centros de datos, una cifra que ayuda a dimensionar el tamaño del compromiso.

En la práctica, el anuncio conecta dos tendencias que ya dominan la agenda tecnológica y financiera. Por un lado, la carrera de las grandes plataformas por asegurar suministro de GPUs y CPUs para entrenar y ejecutar modelos. Por otro, el salto en consumo eléctrico, construcción de infraestructura y financiamiento que implica llevar la IA desde laboratorios hacia productos cotidianos con millones de usuarios.

La noticia también toca un punto sensible para el mercado: la dependencia de un solo proveedor de aceleradores de IA. Durante años, Nvidia ha liderado este segmento y ha capturado buena parte del gasto de capital de los “hiperscalers”. Ahora, Meta busca diversificar y AMD aprovecha la apertura para ganar participación, en un entorno donde cada punto de capacidad de cómputo se traduce en ventaja competitiva.

Para lectores nuevos en el tema, conviene distinguir dos piezas del rompecabezas. Las GPUs suelen concentrar el trabajo pesado en entrenamiento y gran parte de la inferencia a alta escala. Las CPUs, en cambio, están recuperando protagonismo en inferencia por eficiencia y escalabilidad en ciertos despliegues, especialmente cuando la IA se integra como servicio permanente dentro de aplicaciones y flujos empresariales.

Cómo se estructura el trato: compras, acciones y metas de rendimiento

Como parte del acuerdo, AMD emitió a Meta una “orden” basada en rendimiento por hasta 160 millones de acciones comunes de AMD, lo que equivale a cerca del 10% de la empresa, a USD $0,01 cada una. La estructura está diseñada para que dichas acciones se otorguen conforme se cumplan ciertos hitos, alineando la relación de proveedor y cliente con incentivos financieros.

De acuerdo con The Wall Street Journal, el total de acciones que Meta podría recibir depende del precio de la acción de AMD. En particular, la empresa tendría que alcanzar USD $600 por acción para que la operadora de Facebook reciba su tramo final. Como referencia de mercado, las acciones de AMD cerraron en USD $196,60 el lunes, lo que subraya lo ambicioso del umbral planteado.

En cuanto al hardware, Meta compraría la serie de GPUs MI540 de AMD y la última generación de CPUs de la compañía. Esta combinación refleja una arquitectura más híbrida para IA, donde las GPUs aceleran tareas específicas y las CPUs asumen un papel mayor en inferencia, orquestación y escalamiento eficiente de servicios, según el tipo de carga.

Este tipo de acuerdos, que mezclan compras de chips con instrumentos vinculados al desempeño, se han vuelto más visibles conforme crece la presión por asegurar suministro. En octubre pasado, AMD y OpenAI concretaron un acuerdo similar en el que intercambiaron equidad como parte de un compromiso de compra de chips, señalando que los fabricantes buscan relaciones más estrechas con los grandes demandantes de cómputo.

Por qué las CPUs vuelven al centro en la inferencia de IA

Durante una sesión informativa para inversores el martes por la mañana, la CEO de AMD, Lisa Su, afirmó: “El mercado de CPUs está absolutamente en auge”. Añadió que existe una “demanda significativa” que “ha seguido creciendo”, y lo atribuyó a los despliegues de infraestructura de IA a medida que escala la inferencia y también la llamada “AI agentic”.

Su explicación resume un cambio importante en el “stack” de cómputo. A medida que la IA deja de ser un evento puntual de entrenamiento y pasa a ser un servicio continuo de predicción, recomendación, asistencia o automatización, las organizaciones optimizan costos, latencia y escalamiento. En ese escenario, las CPUs pueden resultar más sencillas de desplegar masivamente, más eficientes en ciertas tareas y menos restrictivas en términos de dependencia de un solo proveedor de aceleradores.

La diversificación también apunta a resiliencia operativa. Si un proveedor enfrenta cuellos de botella de fabricación o tiempos de entrega largos, el comprador puede quedar atrapado en retrasos. Para una empresa como Meta, que compite en productos de consumo masivo y servicios publicitarios, la continuidad del cómputo se convierte en una variable estratégica.

AMD, por su parte, ha ido ganando terreno de forma gradual conforme más empresas buscan reducir su dependencia de Nvidia. Esta última ha sido el líder histórico en chips de IA y ha cobrado un precio premium por esa posición. El acuerdo con Meta se lee como otro paso en esa dirección, y como una señal de que los grandes presupuestos de infraestructura no se concentrarán en un solo proveedor.

“Superinteligencia personal”: la visión de Zuckerberg y el gasto en infraestructura

El CEO de Meta, Mark Zuckerberg, dijo que la asociación con AMD es “un paso importante” mientras la empresa diversifica su cómputo y avanza hacia la “superinteligencia personal”. Zuckerberg ha definido esa idea como sistemas de IA diseñados para comprender profundamente y empoderar a las personas en su vida cotidiana, una formulación que pone el foco en utilidad personal más que en sistemas abstractos para investigación.

En paralelo, Meta se comprometió a invertir al menos USD $600.000 millones en centros de datos en Estados Unidos e infraestructura de IA en los próximos años. Dentro de ese plan, la compañía proyectó un gasto de capital de USD $135.000 millones en 2026. Son números que ubican a la empresa entre los mayores compradores de cómputo del planeta, con impactos directos en cadenas de suministro y en los mercados de energía.

La empresa también reveló recientemente planes para un campus de centro de datos de USD $10.000 millones alimentado por gas en Indiana, diseñado para una capacidad de cómputo de 1 gigavatio. Ese dato ayuda a contextualizar la cifra de 6 gigavatios mencionada en el acuerdo con AMD, que equivaldría a varios complejos de esa escala.

Desde la perspectiva de mercados financieros, estas inversiones suelen influir en narrativas que mueven acciones tecnológicas, semiconductores y sectores ligados a infraestructura. En momentos de euforia por IA, el mercado tiende a premiar señales de demanda asegurada. Aun así, el crecimiento del gasto de capital puede abrir preguntas sobre retornos, tiempos de amortización y presión sobre márgenes, según la capacidad de monetizar nuevos productos.

Meta entre Nvidia, AMD y sus propios chips internos

La asociación con AMD llega un par de semanas después de que Meta firmara un acuerdo multianual para expandir sus centros de datos con millones de CPUs y las GPUs más recientes de Nvidia. Es decir, la empresa no sustituye a esta última, sino que añade una segunda fuente relevante para sostener su ritmo de despliegue, algo coherente con una estrategia de abastecimiento dual.

Al mismo tiempo, Meta trabaja en chips internos. Sin embargo, según reportes, el esfuerzo ha enfrentado retrasos. Para la industria, ese detalle suele ser importante: diseñar chips propios puede reducir costos y dependencia a largo plazo, pero exige ciclos de desarrollo, validación y fabricación complejos, además de integración con software y herramientas que ya dominan proveedores establecidos.

En ese contexto, el acuerdo con AMD funciona como una cobertura para la demanda inmediata y como una apuesta por alternativas en el mediano plazo. También sugiere que la carrera por la IA no solo se define por los modelos, sino por la logística del cómputo: disponibilidad de chips, diseño de centros de datos y capacidad de alimentar energéticamente a esa infraestructura.

TechCrunch reportó los detalles del acuerdo y las cifras asociadas a compra potencial, acciones condicionadas y capacidad energética. Con ello, el panorama que queda es el de una industria donde la IA empuja alianzas financieras poco convencionales, y donde el acceso al hardware se convierte en una ventaja tan valiosa como el algoritmo.


Artículo escrito con ayuda de un redactor de contenido de IA, editado por Angel Di Matteo / DiarioBitcoin

Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público


ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.

Suscríbete a nuestro boletín