Por Canuto  

Intel y Google ampliaron su alianza para reforzar el papel de las CPU en la infraestructura de inteligencia artificial, en un momento en que el mercado se desplaza desde el entrenamiento de modelos hacia su despliegue. El acuerdo incluye más uso de procesadores Xeon, adopción de Xeon 6 y una expansión del codesarrollo de IPU personalizadas.

***

  • Google seguirá desplegando procesadores Xeon de Intel y también utilizará los nuevos Xeon 6.
  • Ambas compañías ampliarán el codesarrollo de IPU para asumir tareas que antes recaían sobre la CPU.
  • Intel busca aprovechar el auge de la inferencia y de la IA agéntica para recuperar impulso tras perder cuota de mercado.

 


Intel y Google ampliaron su alianza para impulsar el uso de unidades centrales de procesamiento orientadas a inteligencia artificial y avanzar en el desarrollo de procesadores de infraestructura personalizados. El movimiento llega en una etapa clave para la industria, marcada por un cambio en el uso de la IA y por una renovada demanda de chips informáticos tradicionales.

El anuncio refleja una transición importante dentro del mercado. Durante los primeros años del auge de la inteligencia artificial, la atención se concentró en el entrenamiento de modelos, una fase intensiva en aceleradores especializados.

Ahora, las empresas se están moviendo cada vez más hacia el despliegue de esos modelos, lo que eleva la necesidad de CPU de propósito general capaces de manejar cargas pesadas y diversas.

Según informó Reuters, la unidad Google de Alphabet seguirá desplegando procesadores Xeon de Intel, utilizados para una amplia variedad de tareas, entre ellas inferencia y computación de propósito general. Como parte del acuerdo ampliado, Google también usará los más recientes chips Xeon 6 de Intel.

La decisión es relevante porque confirma que, pese al protagonismo de las GPU y otros aceleradores en la conversación sobre IA, las CPU siguen siendo un componente crítico de la infraestructura. En especial, su papel gana peso cuando las cargas de trabajo se vuelven más mixtas, más distribuidas y más cercanas a la operación diaria de servicios basados en inteligencia artificial.

Además del despliegue de Xeon, Intel y Google ampliarán el codesarrollo de unidades de procesamiento de infraestructura, o IPU por sus siglas en inglés. Estos chips pueden encargarse de tareas que tradicionalmente han sido gestionadas por la CPU, con el objetivo de mejorar la eficiencia general de la computación en centros de datos y entornos de nube.

Las IPU forman parte de una tendencia más amplia en la arquitectura moderna de servidores. En vez de depender de un solo tipo de procesador para todas las tareas, los operadores de infraestructura reparten funciones entre distintos componentes. Así, ciertas labores de red, seguridad, almacenamiento y manejo de datos pueden moverse a hardware específico, liberando capacidad de la CPU para otras cargas críticas.

La IA ya no depende solo de aceleradores

El director ejecutivo de Intel, Lip-Bu Tan, resumió esa idea en una declaración incluida con el anuncio. “La expansión de la IA requiere más que aceleradores: requiere sistemas equilibrados. Las CPU y las IPU son fundamentales para ofrecer el rendimiento, la eficiencia y la flexibilidad que exigen las cargas de trabajo modernas de IA”, afirmó.

La frase apunta a uno de los cambios más visibles del mercado. En la etapa inicial del boom de la IA generativa, gran parte del gasto se dirigió a chips especializados para entrenar modelos cada vez más grandes. Sin embargo, cuando esos modelos pasan a producción, la prioridad ya no es solo velocidad bruta, sino también eficiencia, compatibilidad, costo operativo y capacidad para sostener millones de consultas y procesos en paralelo.

Eso ayuda a explicar por qué la industria está prestando renovada atención a las CPU. Son piezas centrales para coordinar tareas generales, administrar recursos, ejecutar inferencia en determinados escenarios y sostener sistemas donde varios procesadores conviven dentro de una misma plataforma.

También crece la demanda asociada a los llamados sistemas de IA agéntica. Se trata de herramientas que no se limitan a responder como un chatbot, sino que pueden ejecutar operaciones complejas de varios pasos, consultar herramientas, combinar datos y completar procesos más amplios. Ese tipo de uso incrementa la necesidad de una potencia de procesamiento de CPU significativamente mayor.

Para lectores menos familiarizados con el tema, la inferencia es la fase en la que un modelo ya entrenado se utiliza para generar respuestas, clasificar información o tomar acciones. Aunque cada consulta individual puede parecer menos exigente que el entrenamiento, la escala real de uso en producción vuelve crítica la infraestructura que la sostiene.

Una oportunidad estratégica para Intel

El aumento de la demanda de CPU podría ayudar a Intel a fortalecer su balance y captar nuevos clientes. La compañía ha intentado reposicionarse tras perder cuota de mercado frente a sus rivales durante los primeros años del auge de la IA, cuando otros fabricantes lograron capitalizar con mayor fuerza la fiebre por los aceleradores especializados.

En ese contexto, una alianza ampliada con Google tiene valor tecnológico y comercial. Google es uno de los mayores operadores de infraestructura digital del mundo, y su continuidad con Xeon envía una señal importante al mercado sobre el lugar que las CPU de Intel todavía ocupan en arquitecturas de gran escala.

La apuesta también se conecta con otros movimientos recientes de Intel. La empresa dijo el martes que se unirá al proyecto del complejo de chips de IA Terafab de Elon Musk junto con SpaceX y Tesla, con la intención de respaldar las ambiciones del multimillonario en robótica y centros de datos.

Ese frente sugiere que Intel busca insertarse en nuevos polos de demanda vinculados con automatización avanzada, infraestructura de IA y capacidad de cómputo intensiva. En paralelo, la empresa también trata de reforzar su base industrial para sostener esa estrategia.

Reuters indicó además que Intel planea asumir la propiedad total de su instalación de fabricación en Irlanda. Para ello recomprará la participación que había vendido a Apollo Global Management. En esa planta fabrica procesadores de servidor Xeon, por lo que el movimiento encaja con su esfuerzo por fortalecer una línea de productos clave para centros de datos.

La posible recuperación de tracción en CPU no borra los desafíos que Intel enfrenta en un mercado altamente competitivo. Pero sí muestra que la narrativa de la IA se está volviendo más compleja. Ya no se trata solo de quién vende más aceleradores para entrenar grandes modelos, sino de quién puede proveer sistemas balanceados y eficientes para operar inteligencia artificial a escala.

En ese escenario, la ampliación del acuerdo con Google da a Intel una vitrina importante. Si la transición hacia más inferencia, más servicios en producción y más IA agéntica continúa, las CPU y las IPU podrían ganar protagonismo en la próxima etapa del negocio.

Por ahora, el anuncio confirma una tesis que gana fuerza en la industria: la expansión de la inteligencia artificial no depende de un único chip milagroso. Depende de una combinación de componentes capaces de sostener rendimiento, eficiencia y flexibilidad dentro de infraestructuras cada vez más exigentes.


Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público

Este artículo fue escrito por un redactor de contenido de IA

 


ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.

Suscríbete a nuestro boletín