Google mantiene conversaciones con Marvell Technology para codiseñar chips personalizados de inferencia de IA, en una jugada que podría reducir su dependencia de Broadcom y reorientar su estrategia de hardware hacia la fase más costosa y masiva del despliegue de inteligencia artificial.
***
- Google negocia con Marvell una posible alianza para desarrollar chips personalizados de inferencia de IA.
- La movida marcaría un giro frente a su histórica relación con Broadcom en la infraestructura TPU.
- El cambio refleja una tendencia más amplia entre hyperscalers que buscan bajar costos y diversificar proveedores.
🚨 Google en negociación con Marvell para codiseñar chips de IA 🚨
Este acuerdo podría reducir su dependencia de Broadcom, clave en su infraestructura TPU.
Con la inferencia de IA como nuevo campo de batalla, la eficiencia en costos es crucial.
Diversificar proveedores es… pic.twitter.com/GtgKw3kZX1
— Diario฿itcoin (@DiarioBitcoin) April 19, 2026
Google mantiene conversaciones con Marvell Technology para desarrollar una nueva generación de chips personalizados enfocados en inferencia de inteligencia artificial. De concretarse, la iniciativa supondría un cambio relevante en la estrategia de hardware de Alphabet, especialmente por la histórica cercanía de Google con Broadcom para componentes clave de su infraestructura TPU.
La información fue reportada por The Information, según recoge Startup Fortune, y apunta a una etapa avanzada de negociación entre ambas compañías. El posible acuerdo no solo tendría implicaciones técnicas, sino también comerciales, porque abriría una nueva vía de suministro en un segmento cada vez más crítico para los grandes operadores de centros de datos.
Para entender la relevancia de este movimiento conviene distinguir entre entrenamiento e inferencia. Durante los últimos años, gran parte del debate sobre infraestructura de IA se centró en el entrenamiento de modelos masivos como GPT-4 o Gemini, una fase que exige enormes cantidades de cómputo y donde las GPU de Nvidia se han consolidado como referencia.
Sin embargo, la economía de la IA está entrando en otra etapa. Cada consulta a un chatbot, cada imagen generada y cada resumen automático activado por un usuario implica una tarea de inferencia. Cuando esos procesos se multiplican por miles de millones de interacciones diarias dentro del ecosistema de Google, el costo operativo se vuelve un asunto central para la rentabilidad del negocio.
Por qué la inferencia se volvió el nuevo frente de batalla
Los chips personalizados para inferencia, también conocidos como ASIC en muchos de estos despliegues, ofrecen una ventaja específica frente a las GPU de propósito general. Mientras una GPU está diseñada para abordar una amplia variedad de cargas de trabajo, un chip especializado puede optimizarse para ejecutar modelos ya entrenados de forma más eficiente y barata.
Para una empresa de la escala de Google, incluso una reducción mínima en el costo unitario de cada consulta puede traducirse en mejoras significativas en márgenes. Esa lógica ayuda a explicar por qué el despliegue comercial de IA ya no depende solo de construir modelos más capaces, sino de operar esos sistemas a gran escala sin que el gasto en infraestructura se dispare.
En ese contexto, la inferencia ya no es un detalle secundario dentro del ciclo de vida de un modelo. Se ha convertido en el punto donde se juega la sostenibilidad financiera de muchos productos de IA orientados al consumidor, desde asistentes conversacionales hasta herramientas de productividad automatizada.
La posible alianza entre Google y Marvell encaja precisamente en esa transición. Más que perseguir potencia bruta para entrenamiento, el interés parece estar en diseñar silicio adaptado a la operación diaria de servicios de IA, donde la eficiencia energética y el costo por tarea pesan tanto como el rendimiento puro.
Diversificación de proveedores y presión sobre Broadcom
La dimensión técnica no es la única que importa. Incorporar a Marvell también respondería a una lógica clásica de diversificación de proveedores. Broadcom ha mantenido una posición destacada en el mercado de chips personalizados y ha trabajado estrechamente con Google en sus TPU, por lo que una dependencia prolongada de un único socio puede limitar el margen de negociación.
Agregar una segunda alternativa de peso permitiría a Google introducir competencia dentro de su cadena de suministro. Esa presión puede influir en precios, tiempos de entrega y capacidad de adaptación, algo especialmente sensible en un momento donde la demanda por hardware de IA sigue aumentando en toda la industria tecnológica.
Además, distribuir riesgos entre varios socios reduce la exposición ante interrupciones logísticas o geopolíticas. En infraestructura crítica, un retraso en producción o un cuello de botella en componentes puede afectar el despliegue de servicios a gran escala, por lo que los hyperscalers están prestando cada vez más atención a la resiliencia de su abastecimiento.
Startup Fortune señala que Broadcom también se ha vinculado recientemente con OpenAI en ambiciones similares dentro del silicio personalizado. Eso hace todavía más comprensible que Google quiera ampliar sus opciones y evitar quedar atado a un solo actor en una categoría estratégica para el futuro de su negocio de IA.
Marvell gana terreno en el silicio para centros de datos
Marvell llega a estas conversaciones con un perfil fortalecido. La empresa ha ido construyendo una reputación creciente en redes de datos y diseño de chips personalizados, áreas que hoy se entrelazan con las necesidades de los grandes centros de datos dedicados a IA.
Según la misma cobertura, Marvell aseguró recientemente una asociación de varios miles de millones de dólares con Nvidia, centrada en redes ópticas y silicio personalizado. Ese antecedente es importante porque valida su capacidad de ingeniería en algunos de los niveles más exigentes del sector de infraestructura tecnológica.
El mercado también ha tomado nota. Las acciones de Marvell han subido más de 50% en lo que va de año, impulsadas en buena medida por el optimismo de los inversionistas respecto a su posición en infraestructura de datos y chips a medida. Aunque ese desempeño bursátil no garantiza un acuerdo con Google, sí ayuda a explicar por qué la compañía aparece ahora como una alternativa creíble frente a Broadcom.
Si las negociaciones avanzan hasta una alianza formal, Marvell podría consolidarse como una de las principales opciones en el espacio del silicio personalizado para IA. Eso tendría implicaciones no solo para su negocio, sino también para la estructura competitiva de una industria donde hasta ahora pocos proveedores concentran gran parte del valor.
Una tendencia más amplia entre los hyperscalers
Google no estaría actuando en aislamiento. Meta y Microsoft también han seguido estrategias de abastecimiento múltiple y desarrollo propio para sus plataformas de inteligencia artificial. En el caso de Microsoft, Startup Fortune menciona el chip Maia 200 como parte de esa búsqueda por ganar control sobre costos y hoja de ruta tecnológica.
En conjunto, estos movimientos sugieren que los hyperscalers quieren reducir su dependencia de Nvidia y de otros proveedores dominantes. No se trata necesariamente de reemplazar por completo a las GPU, que siguen siendo fundamentales para muchas cargas de trabajo, sino de complementar esa infraestructura con alternativas más baratas y especializadas allí donde tenga sentido económico.
La consecuencia puede ser una fragmentación mayor del mercado de silicio para IA. En vez de una arquitectura uniforme basada en unos pocos fabricantes, el sector podría evolucionar hacia combinaciones de GPU, TPU, ASIC y otros diseños propios, cada uno ajustado a tareas concretas dentro del entrenamiento, la inferencia o la conectividad entre servidores.
Ese reordenamiento también afecta el gasto de capital. Los analistas de la industria proyectan que los envíos de ASIC de cómputo para servidores de IA se triplicarán para 2027, una tendencia que, según Startup Fortune, estaría impulsada casi por completo por las exigencias de despliegue de los grandes modelos de lenguaje.
Visto en perspectiva, la maniobra de Google refleja un cambio más profundo en la competencia por la inteligencia artificial. La carrera ya no consiste solamente en desarrollar los algoritmos más avanzados. También consiste en encontrar la manera de llevarlos a miles de millones de usuarios con una estructura de costos que no erosione el negocio.
Si Google finalmente suma a Marvell como socio en chips de inferencia, el mensaje para la industria será claro. El próximo gran campo de batalla de la IA no estará solo en el laboratorio de entrenamiento, sino en la eficiencia con la que cada empresa logre convertir modelos complejos en servicios masivos, cotidianos y financieramente sostenibles.
Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público
Este artículo fue escrito por un redactor de contenido de IA
ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.
Suscríbete a nuestro boletín
Artículos Relacionados
Curiosidades
Vaticano en alerta máxima: Satanás ya no pide almas, ahora usa IA para rituales
Estados Unidos
Boston estrenará la primera liga profesional de deportes robóticos en Estados Unidos
China
Robot humanoide de China rompe récord humano en medio maratón de Pekín
Educación