Por Canuto  

Amazon Web Services y la startup Cerebras combinarán sus chips de inteligencia artificial en una nueva infraestructura diseñada para acelerar chatbots, herramientas de programación y otros servicios basados en IA.
***

  • Cerebras, valorada en USD $23.100 millones, busca competir con Nvidia.
  • Los chips Trainium3 de Amazon trabajarán junto a procesadores de Cerebras en centros de datos AWS.
  • El servicio se enfocará en acelerar la fase de inferencia de sistemas de inteligencia artificial.

 

Amazon y la startup de semiconductores Cerebras Systems anunciaron un acuerdo estratégico para integrar sus tecnologías de computación en una nueva plataforma destinada a acelerar servicios de inteligencia artificial. La alianza busca mejorar el rendimiento de chatbots, herramientas de programación automatizada y otros sistemas impulsados por modelos avanzados de IA.

La colaboración fue anunciada el viernes y contempla la instalación de chips desarrollados por Cerebras dentro de centros de datos de Amazon Web Services (AWS). Estos procesadores trabajarán en conjunto con los chips Trainium3, la nueva generación de aceleradores de inteligencia artificial diseñados por Amazon.

El objetivo es crear un sistema que combine diferentes tipos de hardware especializado para optimizar el procesamiento de tareas de inteligencia artificial. Este enfoque responde a una tendencia creciente en el sector tecnológico, donde las grandes compañías buscan arquitecturas híbridas para aumentar la eficiencia y reducir costos.

Cerebras, valorada actualmente en USD $23.100 millones, es una startup que intenta desafiar el dominio de Nvidia en el mercado de chips para inteligencia artificial. La compañía apuesta por una arquitectura radicalmente distinta a la utilizada por los principales fabricantes de GPU.

A diferencia de los chips insignia de Nvidia, los procesadores de Cerebras no dependen de memoria de alto ancho de banda, conocida como HBM, un componente costoso que suele encarecer la infraestructura de entrenamiento y ejecución de modelos de IA.

Una estrategia para acelerar la inferencia de IA

El nuevo servicio estará enfocado principalmente en lo que la industria denomina inferencia. Esta fase ocurre cuando un sistema de inteligencia artificial ya entrenado recibe solicitudes de los usuarios y genera respuestas basadas en el conocimiento aprendido.

La inferencia se ha convertido en uno de los mayores desafíos de infraestructura para las empresas tecnológicas. Con la expansión de los asistentes digitales, herramientas de programación automática y sistemas generativos, la demanda de computación para procesar solicitudes en tiempo real ha crecido de forma explosiva.

La solución conjunta de Amazon y Cerebras divide este proceso en dos etapas diferenciadas. Cada etapa será gestionada por un tipo específico de chip diseñado para optimizar esa parte del trabajo.

La primera etapa se denomina prefill. En este paso, las solicitudes de los usuarios se transforman desde lenguaje humano hacia el formato que utilizan los sistemas de inteligencia artificial, conocido como tokens.

En esta fase inicial intervendrán los chips Trainium3 de Amazon. Estos procesadores convertirán las palabras introducidas por los usuarios en las unidades computacionales que utilizan los modelos de IA para interpretar el contexto de una consulta.

La segunda etapa es conocida como decode. En esta fase, el sistema genera la respuesta final que el usuario recibe en pantalla. Los chips de Cerebras se encargarán de realizar ese proceso, produciendo la salida generada por el modelo de inteligencia artificial.

Andrew Feldman, director ejecutivo de Cerebras, explicó a Reuters que esta arquitectura representa una estrategia de “divide y vencerás”. Según el ejecutivo, separar el proceso en dos fases permite optimizar cada etapa utilizando hardware especializado.

AWS busca facilitar el acceso a la tecnología de Cerebras

La integración con Amazon Web Services permitirá que los clientes utilicen la tecnología de Cerebras directamente desde la infraestructura de AWS. El acuerdo pretende simplificar el acceso a estos chips para desarrolladores y empresas que ya utilizan la nube de Amazon.

Feldman afirmó a Reuters que la alianza permitirá que cualquier cliente de AWS utilice los procesadores de Cerebras con una facilidad comparable a activar una nueva función en la plataforma.

“Cada cliente, grande o pequeño, está en AWS, desde desarrolladores individuales hasta los bancos más grandes del mundo”, dijo el ejecutivo, y añadió que el acuerdo hará que acceder a los chips de Cerebras sea “tan fácil como hacer clic”.

La alianza llega en un momento de intensa competencia en el mercado global de chips de inteligencia artificial, donde empresas emergentes buscan posicionarse frente al dominio de Nvidia.

El mercado de chips de IA se intensifica

El anuncio también se produce mientras varios actores de la industria preparan nuevas estrategias para mejorar el rendimiento de los sistemas de inteligencia artificial.

Analistas del sector esperan que Nvidia revele próximamente una arquitectura similar que combine distintos tipos de chips para acelerar la inferencia de IA.

Según las expectativas del mercado, Nvidia planea integrar sus unidades de procesamiento gráfico con tecnología de Groq, una startup especializada en chips de inferencia que la compañía adquirió por USD $17.000 millones a finales de diciembre.

Este enfoque también buscaría dividir el procesamiento en diferentes etapas, asignando cada parte del trabajo a hardware optimizado para esa tarea específica.

Amazon señaló en un comunicado que aún no puede realizar una comparación detallada entre su nueva solución y la propuesta de Nvidia, ya que esta última todavía no ha sido presentada oficialmente.

Sin embargo, la compañía expresó confianza en que su nueva plataforma ofrecerá una mejor relación entre costo y rendimiento frente a las GPU disponibles en el mercado.

Según Amazon, su programa Trainium3 se encuentra a solo meses de ejecutar cargas de trabajo de producción dentro de su infraestructura de nube.

La empresa también indicó que versiones futuras del chip, incluyendo Trainium4, continuarán liderando en eficiencia económica frente a aceleradores de inteligencia artificial vendidos como hardware independiente.

El servicio conjunto entre Amazon y Cerebras está previsto para entrar en funcionamiento durante la segunda mitad de este año.

La iniciativa refleja la creciente carrera tecnológica para construir infraestructuras capaces de sostener la expansión global de la inteligencia artificial generativa.


Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público.

Este artículo fue escrito por un redactor de contenido de IA y revisado por un editor humano para garantizar calidad y precisión.


ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.

Suscríbete a nuestro boletín