Por Canuto  

Google reformuló su estrategia de chips de inteligencia artificial al separar, por primera vez en su línea TPU, el hardware destinado al entrenamiento de modelos del que atenderá tareas de inferencia. La decisión busca mejorar eficiencia y responder al auge de los agentes de IA, en un mercado donde Nvidia mantiene el liderazgo, pero donde gigantes como Amazon, Microsoft y Meta aceleran el desarrollo de silicio propio.
***

  • Google anunció dos TPU de octava generación, uno para entrenamiento y otro para inferencia, disponibles más adelante este año.
  • La compañía aseguró mejoras de 2,8 veces en rendimiento para entrenamiento y de 80% para inferencia frente a Ironwood por el mismo precio.
  • El nuevo TPU 8i incorpora 384 megabytes de SRAM y apunta a ejecutar concurrentemente millones de agentes de IA con baja latencia.


Google anunció un cambio relevante en su estrategia de hardware para inteligencia artificial al separar por primera vez las tareas de entrenamiento e inferencia en chips distintos dentro de su familia de unidades de procesamiento tensorial, o TPU. La medida representa un nuevo intento por competir con Nvidia en uno de los segmentos más codiciados del mercado tecnológico: el de los semiconductores para IA.

Hasta ahora, Google había desarrollado procesadores capaces de encargarse tanto del entrenamiento de modelos como de su ejecución en producción. Con la octava generación de TPU, esa lógica cambia. La empresa dedicará un chip específico al entrenamiento de modelos de IA y otro al trabajo de inferencia, es decir, a responder consultas y ejecutar modelos ya preparados.

Según explicó Amin Vahdat, vicepresidente sénior de Google y tecnólogo jefe para IA e infraestructura, la compañía concluyó que el crecimiento de los agentes de inteligencia artificial exige una arquitectura más especializada. En una publicación oficial, sostuvo que la comunidad se beneficiaría de chips diseñados de forma individual para las necesidades de entrenamiento y servicio.

El anuncio coloca a Google en una trayectoria similar a la de Amazon Web Services, que ya había dividido esos usos entre Inferentia, orientado a solicitudes de IA, y Trainium, enfocado en entrenamiento. En ambos casos, el objetivo es ofrecer alternativas de silicio personalizado frente a las GPU de Nvidia, que siguen siendo la referencia dominante en el sector.

Una nueva generación de TPU con foco en eficiencia

Google indicó que ambos chips de octava generación estarán disponibles más adelante este año. Aunque la empresa no comparó de forma directa el desempeño de sus nuevos procesadores con los productos de Nvidia, sí entregó algunas métricas frente a su propia generación previa, Ironwood, anunciada en noviembre.

De acuerdo con la compañía, el nuevo chip de entrenamiento ofrece 2,8 veces el rendimiento del TPU Ironwood de séptima generación por el mismo precio. En paralelo, el procesador de inferencia mejora el rendimiento en 80% frente a esa misma plataforma, un dato que sugiere una apuesta clara por aumentar eficiencia sin modificar el costo relativo.

El nuevo chip de inferencia, llamado TPU 8i, incorpora además una cantidad significativa de memoria estática de acceso aleatorio, o SRAM. Cada chip incluye 384 megabytes de SRAM, tres veces más que Ironwood. Ese detalle no es menor, porque la SRAM se ha convertido en un elemento central en la carrera por reducir latencia y elevar el rendimiento al ejecutar modelos de IA de forma intensiva.

Sundar Pichai, CEO de Alphabet, afirmó en otra publicación que esta arquitectura está diseñada para ofrecer el alto rendimiento y la baja latencia necesarios para ejecutar concurrentemente millones de agentes de manera rentable. La mención a los agentes de IA subraya cómo los proveedores de nube están ajustando su infraestructura a una etapa en la que los modelos no solo generan respuestas, sino que también actúan y coordinan tareas complejas.

La competencia con Nvidia se intensifica

El movimiento de Google ocurre en medio de una competencia cada vez más abierta con Nvidia, aunque sin desplazarla del centro del mercado. Google sigue siendo un gran cliente de Nvidia, pero al mismo tiempo comercializa sus TPU como una alternativa para empresas que operan sobre su nube. En otras palabras, coopera con el líder del sector y compite contra él al mismo tiempo.

La fuente CNBC destacó que Nvidia promovió en marzo un próximo silicio capaz de permitir respuestas muy rápidas a preguntas de usuarios, gracias a tecnología obtenida en su acuerdo por USD $20.000 millones con la startup de chips Groq. En esa misma línea, Nvidia indicó que su próximo hardware Groq 3 LPU se apoyará en grandes cantidades de SRAM.

Esa coincidencia técnica hace más visible el giro de Google con TPU 8i. El uso intensivo de SRAM también ha sido una carta de otros jugadores del mercado, como Cerebras, fabricante de chips de IA que presentó documentación para salir a bolsa a comienzos de este mes. Todo esto apunta a una convergencia en el diseño de hardware enfocado en acelerar inferencia con menor latencia.

Pese a ello, ninguno de los gigantes tecnológicos parece estar arrebatándole el liderazgo a Nvidia en el corto plazo. El propio reporte deja claro que Google no está planteando una comparación frontal de rendimiento con su rival. Más bien, el mensaje es que busca atender casos de uso específicos con mayor eficiencia y dar a sus clientes de nube una opción adicional.

Un mercado donde todos quieren su propio silicio

El desarrollo de chips personalizados para inteligencia artificial ya no es una estrategia aislada. Las principales tecnológicas están invirtiendo en semiconductores propios para optimizar costos, controlar mejor su infraestructura y adaptar el hardware a cargas de trabajo concretas. La IA generativa y los agentes autónomos han acelerado esa tendencia.

Apple lleva años integrando motores neuronales en los chips internos de iPhone. Microsoft anunció en enero un chip de IA de segunda generación. La semana pasada, Meta informó que trabaja con Broadcom en múltiples versiones de procesadores de IA. En este contexto, Google aparece como uno de los pioneros más consistentes de esta corriente.

La empresa comenzó a usar procesadores diseñados internamente para ejecutar modelos de IA desde 2015. Más tarde, en 2018, empezó a alquilar esos chips a clientes de su división de nube. Ese recorrido le ha permitido acumular experiencia tanto en operación interna como en comercialización de infraestructura de IA para terceros.

Amazon siguió un camino parecido. AWS anunció Inferentia en 2018 para gestionar solicitudes de IA y presentó Trainium en 2020 para entrenamiento de modelos. La separación entre ambos usos ahora es retomada por Google, que busca adaptar mejor su oferta al momento actual del mercado.

Crece la adopción y el valor estratégico del negocio

Más allá de la competencia tecnológica, Google también está mostrando señales de mayor adopción de sus chips. La empresa señaló que Citadel Securities construyó software de investigación cuantitativa utilizando sus TPU. Además, indicó que los 17 laboratorios nacionales del Departamento de Energía de Estados Unidos usan software de co-científico de IA basado en esos procesadores.

Otro dato relevante es el compromiso de Anthropic para usar múltiples gigavatios de TPU de Google. Aunque no se detallaron plazos ni montos, la referencia ayuda a dimensionar la escala industrial que están alcanzando estos despliegues. En la práctica, la lucha por el liderazgo en IA no se juega solo en el diseño de modelos, sino también en la capacidad de asegurar suministro computacional masivo.

En septiembre, analistas de DA Davidson estimaron que el negocio de TPU de Google, junto con el grupo de IA Google DeepMind, valdría alrededor de USD $900.000 millones. Esa cifra no equivale a ingresos directos, pero ilustra el peso estratégico que el mercado atribuye a la combinación de hardware propio e investigación avanzada en inteligencia artificial.

Para el ecosistema tecnológico y financiero, este tipo de anuncios importa más allá del sector de chips. La infraestructura que haga viable entrenar y desplegar modelos con menores costos influirá sobre la economía de la IA, la competencia entre nubes y el acceso corporativo a sistemas avanzados. En esa disputa, Google quiere dejar claro que no piensa ceder terreno sin pelear.


ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.

Suscríbete a nuestro boletín