Un nuevo avance técnico presentado por Google sacudió al sector de chips de memoria y reavivó un debate crucial para la infraestructura de inteligencia artificial: si reducir el consumo de memoria amenaza la demanda de hardware o, por el contrario, termina expandiendo aún más el mercado.
***
- SK Hynix y Samsung cayeron más de 6% y cerca de 5% en Seúl tras la difusión de la tecnología TurboQuant de Google.
- Google asegura que su investigación puede reducir al menos seis veces la memoria necesaria para ejecutar grandes modelos de lenguaje.
- Analistas ven un impacto mixto a corto plazo, pero varios sostienen que una IA más eficiente podría impulsar más adopción y demanda futura.
Las acciones de fabricantes de chips de memoria profundizaron sus pérdidas este jueves después de que Google, filial de Alphabet, volviera a poner en circulación una investigación que apunta a un uso mucho más eficiente de la memoria requerida para sistemas de inteligencia artificial.
El movimiento golpeó tanto a empresas asiáticas como estadounidenses. En Seúl, SK Hynix Inc. cayó más de 6%, mientras Samsung Electronics Co. retrocedió alrededor de 5%. En las operaciones previas a la apertura en Estados Unidos, Micron Technology Inc., Western Digital Corp. y Sandisk Corp. bajaban más de 2%, luego de haber cerrado ya en rojo durante la sesión del miércoles.
La reacción del mercado refleja una sensibilidad creciente ante cualquier novedad que pueda alterar el equilibrio entre oferta, demanda y precios en la cadena de suministro de memoria para IA. Durante los últimos meses, este segmento había sido uno de los grandes beneficiarios del auge en infraestructura de inteligencia artificial.
Ese impulso no ha sido menor. Cuatro hyperscalers, liderados por Amazon y Google, planean gastar cerca de USD $650.000 millones este año para construir centros de datos. Esa expansión ha incrementado la demanda por aceleradores de IA de Nvidia Corp. y por los chips de memoria vinculados a esos sistemas.
En ese contexto, las empresas de memoria habían acumulado una racha favorable, apoyadas por precios más altos, mayores beneficios y expectativas de escasez prolongada. De hecho, el presidente de SK Group, Chey Tae-won, dijo recientemente que la falta de chips de memoria podría extenderse hasta 2030.
Sin embargo, la nueva atención sobre la tecnología de Google introdujo una posibilidad incómoda para los inversionistas: que una mayor eficiencia reduzca parte de la presión sobre el suministro y termine moderando los precios que habían impulsado al sector.
Qué propone TurboQuant y por qué inquietó al mercado
Google dio a conocer esta semana en X detalles de una investigación que, según explicó la compañía, ya había salido originalmente el año pasado. El desarrollo, llamado TurboQuant, puede reducir al menos seis veces la cantidad de memoria necesaria para ejecutar modelos de lenguaje de gran tamaño (LLM).
La implicación central es económica. Si se requiere menos memoria para operar estos modelos, también caería el costo total de entrenamiento y despliegue de inteligencia artificial. Para un mercado que ha premiado a fabricantes de memoria por la escasez y la urgencia inversora de los centros de datos, ese mensaje fue suficiente para activar ventas.
El cuello de botella técnico al que apunta esta investigación está vinculado a la llamada caché de clave-valor, utilizada en la inferencia. En términos simples, la inferencia es la fase en la que el modelo ya entrenado responde consultas y genera resultados, una etapa crítica para servicios de IA desplegados a gran escala.
Al mejorar la eficiencia en ese punto, TurboQuant podría permitir que los sistemas manejen cargas de trabajo relevantes con menos recursos de memoria. Esa perspectiva generó preocupación entre inversionistas que temen una menor necesidad de compras por parte de los hyperscalers, justamente los actores que más han sostenido la demanda reciente.
También aparece una derivada para otros segmentos. Si se libera parte de la presión sobre la memoria avanzada, podría aliviarse la escasez que ha contribuido al encarecimiento de smartphones y electrónica de consumo, un asunto que el mercado también sigue de cerca.
Aun así, una mejora de eficiencia no equivale necesariamente a una caída estructural de la demanda. Buena parte del debate actual gira en torno a si la tecnología reducirá el volumen total de hardware necesario o si habilitará más aplicaciones, más consultas y más despliegues, elevando el consumo agregado.
Los analistas ven riesgos inmediatos, pero no una amenaza clara a corto plazo
Shawn Kim, analista de Morgan Stanley, sostuvo en una nota que el efecto para la industria debería ser más positivo que negativo porque ataca un cuello de botella crítico. Según su lectura, una reducción importante en los requisitos de memoria sin pérdida de rendimiento puede bajar de forma significativa el costo de atender cada consulta.
En palabras del propio Kim, si los modelos pueden ejecutarse con necesidades de memoria materialmente más bajas sin perder desempeño, el costo de servir cada petición cae con fuerza, lo que se traduce en un despliegue de IA más rentable. Esa visión apunta a un ecosistema más eficiente y, potencialmente, más escalable.
Junto con otros analistas optimistas del sector, Kim recurrió a la llamada Paradoja de Jevons. Este concepto, asociado a un economista inglés que estudió la producción de carbón, sostiene que cuando una tecnología se vuelve más eficiente, el consumo total puede aumentar en lugar de disminuir.
La idea ha ganado presencia en el debate tecnológico reciente. JPMorgan Chase & Co. y Citigroup Inc. también la han citado para evaluar la expansión de la inteligencia artificial. Bajo ese marco, una IA más barata no destruiría demanda de memoria, sino que podría multiplicar el número de usos y acelerar la adopción.
Los analistas de JPMorgan, por ejemplo, señalaron que los inversionistas podrían optar por tomar ganancias tras la noticia, pero añadieron que no observan una amenaza de corto plazo para el consumo de memoria. Esa matización ayuda a explicar por qué la venta del mercado puede interpretarse más como un ajuste de expectativas que como un cambio definitivo de tendencia.
Andrew Jackson, analista de Ortus Advisors, escribió en una nota publicada en Smartkarma que el desarrollo de Google puede marcar poca diferencia para la demanda dadas las restricciones extremas de oferta. Su planteamiento sugiere que, aun con mejoras de eficiencia, la capacidad disponible seguiría siendo insuficiente frente al ritmo de expansión del sector.
La gran pregunta para el mercado de IA y semiconductores
Detrás de la caída bursátil hay una discusión más amplia sobre cómo evolucionará la economía de la inteligencia artificial. Hasta ahora, la narrativa dominante ha sido que entrenar y operar modelos cada vez más sofisticados exige cantidades crecientes de chips, memoria, energía y capacidad de centros de datos.
Ese escenario favoreció especialmente a los fabricantes de componentes críticos. La memoria de alto rendimiento se convirtió en una pieza central de la carrera por la IA, ya que permite alimentar con rapidez a los aceleradores y sostener cargas de trabajo masivas en entrenamiento e inferencia.
Pero avances como TurboQuant introducen una segunda narrativa: la de la optimización. Si las compañías logran hacer más con menos memoria, el perfil económico de la IA cambia. Los proyectos pueden volverse más rentables y accesibles, y eso puede modificar tanto la estructura de costos como la competencia dentro del sector.
Ese mismo debate ya había aparecido el año pasado, cuando el modelo de IA de bajo costo de DeepSeek desató temores sobre una menor necesidad de tecnología más avanzada. En aquel momento, parte de la comunidad tecnológica también recurrió a la Paradoja de Jevons para argumentar que la reducción de costos podía terminar acelerando la adopción total.
Kim, de Morgan Stanley, afirmó que TurboQuant es positivo para los hyperscalers por la oportunidad de mejorar el retorno sobre la inversión. Añadió que también podría beneficiar a los fabricantes de memoria en un horizonte más largo, ya que un menor costo por token puede traducirse en una mayor demanda de adopción del producto.
Por ahora, la lectura del mercado parece dominada por la cautela. La noticia reavivó el temor a que una parte de la escasez de memoria se alivie antes de lo previsto, afectando el poder de fijación de precios de las empresas del sector. Sin embargo, varias firmas de análisis insisten en que la presión estructural de la IA sobre la infraestructura sigue siendo intensa.
Según reportó Bloomberg, la venta masiva respondió más a una reinterpretación de expectativas que a un deterioro inmediato de la demanda real. En otras palabras, el mercado intenta calibrar si la eficiencia reducirá el volumen de chips requeridos o si hará posible una expansión aún mayor del uso de inteligencia artificial.
Ese punto será decisivo para empresas como Samsung, SK Hynix, Micron, Western Digital y Sandisk. También lo será para los grandes operadores de centros de datos, que buscan equilibrar gasto de capital, disponibilidad de hardware y rentabilidad en un ciclo de inversión que ya alcanza cientos de miles de millones de dólares.
Por ahora, el mensaje de fondo es claro. En la economía de la IA, una mejora técnica puede mover con fuerza a los mercados incluso antes de que sus efectos concretos se materialicen. Y cuando el cambio toca uno de los cuellos de botella más sensibles de la industria, la reacción bursátil no suele tardar.
Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público
Este artículo fue escrito por un redactor de contenido de IA
ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.
Suscríbete a nuestro boletín
Artículos Relacionados
Bitcoin
MARA vende 15.000 bitcoins por USD $1.100 millones para recortar deuda convertible
Bitcoin
Fannie Mae lanza hipotecas con garantía en Bitcoin y USDC en alianza con Coinbase
Bancos y Pagos
Revolut planea ubicar 40% de su plantilla global en India para 2026
Empresas