Por Canuto  

Google Cloud presentó dos nuevos chips de inteligencia artificial, TPU 8t y TPU 8i, con los que busca mejorar el entrenamiento y la inferencia de modelos a menor costo y consumo energético. Aunque el movimiento refuerza su apuesta por infraestructura propia, la compañía dejó claro que no rompe con Nvidia y que incluso seguirá ampliando su oferta basada en los procesadores del fabricante.
***

  • Google Cloud separó su octava generación de TPU en dos chips, uno para entrenamiento y otro para inferencia.
  • La empresa asegura hasta 3 veces más velocidad de entrenamiento, 80% mejor rendimiento por dólar y clústeres de más de 1 millón de TPU.
  • Pese al avance, Google mantendrá su colaboración con Nvidia y ofrecerá este año el chip Vera Rubin en su nube.

 


Google Cloud anunció el lanzamiento de dos nuevos chips de inteligencia artificial diseñados a medida, en un movimiento que refuerza la competencia entre los grandes proveedores de nube por controlar la infraestructura detrás del auge de la IA. La compañía dividió su octava generación de unidades de procesamiento tensorial, o TPU, en dos productos distintos: TPU 8t, centrado en el entrenamiento de modelos, y TPU 8i, orientado a tareas de inferencia.

La decisión refleja una tendencia cada vez más visible en el sector. A medida que los modelos de IA crecen en tamaño, costo y uso comercial, las empresas tecnológicas buscan hardware específico para distintas etapas del ciclo operativo. El entrenamiento exige grandes volúmenes de cómputo para desarrollar un modelo, mientras que la inferencia se refiere a su uso cotidiano una vez que los usuarios envían instrucciones o consultas.

Según detalló TechCrunch, Google destacó mejoras de desempeño significativas frente a generaciones previas de sus propios chips. Entre ellas, la empresa afirmó que sus nuevas TPU pueden acelerar el entrenamiento de modelos de IA hasta 3 veces, mejorar en 80% el rendimiento por dólar y permitir que más de 1 millón de TPU operen juntas dentro de un mismo clúster.

En términos prácticos, la promesa de Google es ofrecer más capacidad de cómputo con menor consumo energético y menores costos para sus clientes. Ese punto es clave en una industria donde el precio de entrenar y operar modelos avanzados se ha convertido en un factor decisivo para empresas, startups y desarrolladores que dependen de la nube para escalar servicios de IA.

Google acelera su apuesta por chips propios

El anuncio también confirma que Google sigue profundizando una estrategia que lleva años desarrollando. La compañía utiliza el nombre TPU en lugar de GPU porque su familia de chips personalizados nació con un enfoque específico en operaciones tensoriales, esenciales para muchas cargas de trabajo de aprendizaje automático. Desde sus primeras versiones, Google ha buscado construir aceleradores más eficientes que los procesadores generalistas usados tradicionalmente en centros de datos.

Para lectores menos familiarizados con esta carrera tecnológica, las TPU son procesadores especializados en tareas de inteligencia artificial. Su función es optimizar cálculos matemáticos repetitivos, algo central en el entrenamiento y la ejecución de modelos generativos, sistemas de recomendación, asistentes conversacionales y otras aplicaciones avanzadas de software.

El detalle de separar la octava generación en dos modelos distintos sugiere una maduración del mercado. En lugar de apostar por un único chip para todo tipo de tareas, Google reconoce que entrenamiento e inferencia tienen necesidades técnicas y económicas diferentes. Esa especialización puede traducirse en mejor uso de recursos dentro de su nube y en ofertas más específicas para clientes empresariales.

Aun así, el movimiento no implica un reemplazo total de Nvidia. El propio reporte indica que Google no está planteando, al menos por ahora, una ofensiva frontal para sustituir completamente al líder del mercado. Más bien, la empresa busca complementar su infraestructura basada en chips externos con hardware propio, una estrategia que también han seguido otros gigantes como Microsoft y Amazon.

La competencia con Nvidia sigue, pero la dependencia no desaparece

El auge de la IA ha convertido a Nvidia en uno de los mayores ganadores del ciclo tecnológico actual. Sus GPU dominan buena parte del mercado de entrenamiento y despliegue de modelos avanzados, y su posición ha sido tan fuerte que muchos analistas consideran arriesgado apostar en contra de la empresa, incluso cuando sus grandes clientes empiezan a desarrollar silicio propio.

En ese contexto, la apuesta de Google parece más táctica que rupturista. La compañía confirmó que su nube ofrecerá más adelante este año el chip más reciente de Nvidia, Vera Rubin. Es decir, Google quiere impulsar sus propias TPU, pero al mismo tiempo mantener una oferta atractiva para clientes que ya construyeron sus sistemas alrededor del ecosistema de Nvidia.

Ese equilibrio responde a una realidad comercial. Muchas empresas entrenan o ejecutan modelos sobre herramientas, bibliotecas y arquitecturas optimizadas para GPU de Nvidia. Migrar grandes flujos de trabajo a otro tipo de chip no siempre resulta sencillo ni barato. Por eso, los hiperescaladores necesitan ampliar opciones sin forzar una transición brusca en su base de usuarios.

También existe una lectura estratégica de largo plazo. Si Google, Amazon y Microsoft logran que más cargas de trabajo de IA se adapten a chips diseñados por ellos mismos, la dependencia de Nvidia podría reducirse con el tiempo. Pero ese escenario aún no se consolida, y por ahora el dominio del fabricante sigue siendo amplio tanto en percepción de mercado como en escala comercial.

La historia recoge además un comentario del analista Patrick Moore, quien recordó en tono de broma que en 2016 había anticipado que las TPU de Google podrían representar malas noticias para Nvidia e Intel. La evolución posterior no respaldó esa proyección. Nvidia se convirtió desde entonces en una empresa con una capitalización bursátil cercana a USD $5 billones, una cifra que resume el tamaño de su ventaja actual.

Cooperación tecnológica en plena rivalidad

Uno de los aspectos más relevantes del anuncio es que la relación entre Google y Nvidia no se limita a la competencia. Ambas empresas también colaboran para mejorar el funcionamiento de sistemas basados en Nvidia dentro de la infraestructura de Google Cloud. Esa cooperación revela hasta qué punto la carrera por la IA mezcla rivalidad comercial con alianzas técnicas.

En particular, Google informó que trabaja con Nvidia en el diseño de redes informáticas que permitan una mayor eficiencia para estos sistemas dentro de su nube. El objetivo es optimizar la forma en que se comunican grandes volúmenes de chips y servidores, un elemento crítico cuando los modelos requieren distribuir tareas entre miles o incluso cientos de miles de aceleradores.

Dentro de ese frente aparece Falcon, una tecnología de redes basada en software creada por Google y liberada como código abierto en 2023 bajo el paraguas del Open Compute Project. Reforzar Falcon junto con Nvidia apunta a resolver uno de los grandes cuellos de botella de la computación de IA a escala: el movimiento rápido y eficiente de datos entre nodos de procesamiento.

Este punto suele recibir menos atención pública que el número de chips o la potencia bruta, pero es decisivo para el rendimiento real en centros de datos. Un clúster puede tener aceleradores muy potentes, pero si la red no acompaña, el sistema pierde eficiencia. Por eso, la infraestructura de IA se define no solo por los procesadores, sino también por interconexiones, software y diseño de red.

Qué implica para el mercado de nube e IA

El lanzamiento de TPU 8t y TPU 8i confirma que la batalla por la IA ya no se libra solo en modelos y aplicaciones, sino en la capa más profunda de la infraestructura. Quien controle el hardware, la red y la plataforma de despliegue tendrá ventajas en costos, márgenes y capacidad de atraer clientes. En ese tablero, Google quiere ser más que un proveedor de servicios y posicionarse como un constructor integral del stack tecnológico.

Para empresas vinculadas al ecosistema cripto y blockchain, esta evolución también resulta relevante. Muchas plataformas, exchanges, laboratorios de análisis on-chain y compañías de ciberseguridad están incorporando herramientas de IA que dependen de infraestructura de nube. Menores costos por inferencia o entrenamiento pueden abrir espacio para productos más complejos y uso más intensivo de automatización.

Al mismo tiempo, el anuncio deja una lectura prudente para inversores y observadores del mercado. Aunque los hiperescaladores avanzan con chips propios, Nvidia sigue ocupando una posición central. El mensaje de Google no es el de una ruptura inmediata, sino el de una diversificación gradual de su arquitectura para IA, combinando desarrollo interno con colaboración externa.

Eso convierte a TPU 8t y TPU 8i en una señal importante, aunque no definitiva, de hacia dónde se mueve el sector. Google busca más control sobre costos, eficiencia y escala en su nube, pero todavía dentro de un ecosistema donde Nvidia conserva una influencia enorme. La verdadera disputa no parece estar en expulsar al líder de un día para otro, sino en capturar una porción mayor del valor generado por la nueva economía de la inteligencia artificial.


Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público.

Este artículo fue escrito por un redactor de contenido de IA y revisado por un editor humano para garantizar calidad y precisión.


ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.

Suscríbete a nuestro boletín