Qualcomm anunció los aceleradores AI200 y AI250 para centros de datos, enfocados en inferencia de modelos de IA y diseñados para racks enfriados por líquido; la noticia impulsó sus acciones un 11% y plantea una competencia directa con Nvidia y AMD en un mercado dominado por GPUs.
***
- Qualcomm anunció dos chips para centros de datos: AI200 (venta en 2026) y AI250 (previsto para 2027).
- La empresa afirma ventajas en consumo, costo de propiedad y memoria: tarjetas con 768 gigabytes.
- El anuncio eleva la competencia en un mercado dominado por Nvidia, y las acciones de Qualcomm subieron 11%.
🚀 Qualcomm irrumpe en el mercado de chips de IA 🚀
Anuncios de los aceleradores AI200 y AI250 para centros de datos.
Las acciones de Qualcomm subieron un 11% tras la noticia.
Competencia directa con Nvidia y AMD en un sector dominado por GPUs.
Se espera que el AI200 esté… pic.twitter.com/b7G6NVBzPd
— Diario฿itcoin (@DiarioBitcoin) October 27, 2025
El mercado de aceleradores de inteligencia artificial para centros de datos está dominado hoy por GPUs, y Nvidia concentra más del 90% de esa cuota según reportes del sector. Este dominio ha convertido a la compañía en un referente financiero y tecnológico, con una capitalización que supera USD $4,5 billones. En ese panorama, cualquier entrada nueva despierta atención inmediata por su potencial para reordenar proveedores y precios.
Los grandes laboratorios de IA y los hyperscalers requieren soluciones capaces de agrupar decenas de chips en racks completos para entrenar y ejecutar modelos avanzados. Qualcomm, conocida históricamente por chips para conectividad inalámbrica y móviles (Chips SnapDragon en más de 1200 millones de teléfonos Android), anunció su intención de ofrecer precisamente ese tipo de sistemas. La noticia provoca preguntas sobre interoperabilidad, ecosistema y adopción por parte de clientes masivos.
El gasto en infraestructura sigue creciendo: McKinsey estima inversiones por un total aproximado de USD $6,7 billones en centros de datos hasta 2030, y la mayor parte de ese capital se destinará a sistemas basados en chips de IA. Esa proyección subraya por qué compañías consolidadas y nuevos participantes compiten por diseñar aceleradores eficientes para inferencia y entrenamiento.
Hasta ahora, empresas como Google, Amazon y Microsoft han desarrollado aceleradores propios para sus nubes, mientras que OpenAI y otras startups han buscado diversificar proveedores. A principios de este mes, la propia OpenAI anunció planes para comprar chips al segundo fabricante de GPUs, AMD, y explorar una posible participación en esa compañía. Esa búsqueda de alternativas abre una ventana de oportunidad para nuevos proveedores.
CNBC informó sobre el anuncio de Qualcomm y aportó los detalles técnicos y comerciales que la compañía dio a conocer en su presentación. La entrada de Qualcomm al segmento de centros de datos no es un movimiento aislado; encaja en una tendencia más amplia donde fabricantes de semiconductores extienden su alcance desde dispositivos móviles hacia infraestructuras de nube y edge.
El anuncio de Qualcomm: chips AI200 y AI250
Qualcomm presentó oficialmente dos aceleradores de IA orientados a centros de datos: el AI200, cuya venta está programada para 2026, y el AI250, previsto para 2027.
La empresa comunicó que ambos chips pueden integrarse en un sistema que llene un rack de servidores completo y que está diseñado para enfriamiento por líquido.
Ese detalle es clave porque el enfriamiento líquido permite densidades de potencia y eficiencia térmica en racks de alto rendimiento.
Los aceleradores de Qualcomm aprovechan las unidades de procesamiento de IA ya presentes en sus chips móviles, conocidas como Hexagon, y las NPUs que la compañía ha desarrollado para tareas de inferencia.
Durga Malladi, gerente general de Qualcomm para centros de datos y edge, explicó durante una llamada con periodistas:
Primero quisimos demostrar nuestra competencia en otros dominios, y una vez que construimos esa fortaleza ahí, fue bastante fácil para nosotros subir un peldaño al nivel de centro de datos.
Qualcomm aseguró que sus sistemas orientados a inferencia costarán menos en operación para clientes como proveedores de servicios en la nube, y que un rack típico con sus aceleradores consume 160 kilovatios, una cifra comparable al consumo de algunos racks basados en GPUs.
La compañía también dijo que venderá chips y componentes por separado para clientes que prefieran diseñar sus propios racks, una opción atractiva para hyperscalers que buscan personalización.
Sobre capacidad de memoria y diseño, Qualcomm afirmó que sus tarjetas de IA soportan 768 gigabytes de memoria, un número que, según la empresa, supera las ofertas actuales de Nvidia y AMD. La firma no detalló el precio de las tarjetas ni de los racks completos, ni especificó cuántas NPUs cabrían en un único rack, datos que el mercado suele exigir para evaluar retorno de inversión.
Qualcomm también mencionó una asociación previa con Humain, un cliente en Arabia Saudita, que ya se comprometió a desplegar sistemas de inferencia de la firma, con la capacidad de consumir hasta 200 megavatios de potencia si así lo requiere la demanda. Ese acuerdo muestra el interés de países y proveedores de servicios en diversificar su base de suministro.
Implicaciones para la industria, costos y competencia
La entrada de Qualcomm intensifica la competencia en el segmento de aceleradores de IA, donde Nvidia ha sido el actor dominante. Una mayor competencia podría presionar precios y empujar innovaciones en eficiencia energética, memoria y arquitectura de sistema. Para los consumidores finales, esto puede traducirse en opciones más variadas y potenciales reducciones en el costo total de propiedad.
Qualcomm afirmó que sus chips ofrecen ventajas en consumo de energía, costo de propiedad y un enfoque distinto en la gestión de memoria. Si esos beneficios se demuestran en despliegues reales, los proveedores de nube y operadores de centros de datos podrían evaluar mezclas de hardware, combinando chips de distintos fabricantes para optimizar rendimiento y precio. Malladi afirmó: “Lo que hemos intentado hacer es asegurarnos de que nuestros clientes estén en posición de tomarlo todo o decir, ‘voy a mezclar y combinar'”.
Sin embargo, la transición del mercado móvil al centro de datos plantea desafíos técnicos y comerciales. Los workloads de entrenamiento y de inferencia tienen necesidades distintas; Qualcomm ha dicho que sus chips se enfocan en inferencia, no en entrenamiento, lo que delimita el alcance inmediato de su propuesta frente a las GPUs que se usan en entrenamiento a gran escala.
Además, la adopción dependerá de ecosistemas de software, soporte para frameworks de IA y relaciones con hyperscalers. Empresas como Google, Amazon y Microsoft desarrollan aceleradores internos y a menudo prefieren soluciones a medida. Qualcomm deberá demostrar interoperabilidad y ventajas económicas para convencer a esos clientes de integrar sus chips en infraestructuras ya existentes.
En términos financieros de corto plazo, la reacción del mercado fue positiva: las acciones de Qualcomm subieron 11% tras el anuncio, según la cobertura de CNBC. Ese movimiento refleja la esperanza de los inversores en una nueva línea de ingresos y en la posibilidad de que la compañía capture parte del mercado de aceleradores de IA que crece con rapidez.
Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público.
Este artículo fue escrito por un redactor de contenido de IA y revisado por un editor humano para garantizar calidad y precisión.
ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.
Suscríbete a nuestro boletín
Artículos Relacionados
Amazon planea recortar alrededor de 30.000 empleos corporativos
Corea del Norte escala robos cripto con ayuda de los modelos de IA
Openai desarrolla un modelo de IA para generar música a partir de texto y audio
