Micron asegura haber presentado el SSD para centros de datos más rápido del mundo: el 9650, un modelo PCIe Gen 6 que alcanza hasta 28.000 MB/s en lectura secuencial. Más allá del récord, el anuncio reaviva una discusión clave para la era de la inteligencia artificial: el almacenamiento empieza a acercarse al ancho de banda de la RAM, pero aún está lejos de reemplazarla donde más importa, como en latencia y acceso aleatorio.
***
- Micron afirma que su SSD 9650 logra hasta MB/s 28.000 de lectura secuencial, MB/s 14.000 de escritura y hasta 5,5 millones de IOPS.
- La compañía vincula el salto de rendimiento con la demanda de IA, y sostiene que muchas GPUs rinden por debajo del 50% por esperar datos desde los SSD.
- Aunque el ancho de banda secuencial ya se acerca a un canal de DDR4, la latencia en microsegundos y el acceso aleatorio siguen separando a un SSD de la RAM.
Un SSD que marca un salto generacional en centros de datos
Micron asegura haber puesto en escena el SSD para centros de datos más rápido del mundo. Según la compañía, su modelo 9650 alcanza hasta MB/s 28.000 en velocidades de lectura secuencial, un nivel que, de confirmarse en condiciones reales, duplicaría lo que hoy entregan los mejores SSD sobre PCIe Gen 5.
El propio listado de especificaciones que acompaña al anuncio también menciona hasta MB/s 14.000 en escrituras secuenciales. En operaciones de lectura aleatoria, Micron afirma que llega a 5,5 millones de IOPS, un valor que apunta a cargas intensivas de consulta y a flujos de datos típicos del cómputo acelerado.
El mensaje implícito es claro: el almacenamiento dejó de ser un componente “pasivo” dentro del servidor. Para centros de datos que procesan enormes volúmenes de información, el ancho de banda del SSD empieza a dictar cuánto se aprovechan CPU y GPU, en especial cuando se trabaja con datasets que no caben en memoria.
De acuerdo con el medio especializado How-To Geek, parte de lo llamativo del 9650 es que la lectura secuencial ya se ubica apenas por encima de lo que puede lograr un canal único de DDR4 estándar, cerca de GB/s 25. Aunque la comparación tiene matices, el dato refleja la magnitud del avance en almacenamiento no volátil.
IA y el cuello de botella: GPUs esperando datos
La demanda computacional de la inteligencia artificial aparece como uno de los motores declarados detrás de este desarrollo. Micron argumenta que, en centros de datos, las GPUs pueden quedar por debajo del 50% de su rendimiento máximo porque pasan tiempo esperando que los SSD entreguen datos.
Este problema no es nuevo en cómputo de alto desempeño, pero se vuelve más visible con cargas de IA. Entrenar o servir modelos implica mover grandes cantidades de información y, si el almacenamiento no acompaña, el hardware más caro del sistema queda subutilizado.
En ese contexto, un SSD con mayor rendimiento secuencial puede mejorar el “feed” de datos hacia el resto de la plataforma. El objetivo no es solo acelerar copias o cargas, sino reducir la fricción de los pipelines que dependen de lectura sostenida para preparar lotes y alimentar procesos en paralelo.
How-To Geek también destaca un detalle de diseño asociado al perfil de centro de datos: el soporte para enfriamiento por líquido. No se trata de un adorno; a estas velocidades, el control térmico puede definir la estabilidad y la consistencia del rendimiento durante cargas prolongadas.
La brecha entre RAM y SSD se reduce, pero no desaparece
La RAM existe porque el almacenamiento secundario, históricamente, no alcanzaba para sostener el flujo de datos que requieren CPU y GPU. En sistemas modernos, la memoria cumple el rol de un espacio de trabajo ultrarrápido, mientras que el disco actúa como reserva persistente.
El desafío en centros de datos es que los conjuntos de datos para IA pueden ser tan grandes que no se pueden alojar por completo en memoria. Incluso si fuese técnicamente posible, la inversión sería enorme. Por eso, la propuesta de un SSD que se acerque a la velocidad de un canal DDR4, pero con capacidades muy superiores, resulta tan atractiva.
En el caso del 9650, la nota describe que podría ofrecer capacidades de hasta TB 25,6. Esa cifra ilustra el punto: un “depósito” masivo, no volátil, con un ancho de banda que ya no se siente tan distante de la memoria en ciertos escenarios de transferencia secuencial.
Sin embargo, acercarse en una métrica no significa igualar el comportamiento general. La RAM no solo es rápida en throughput; también opera con latencias extremadamente bajas y está integrada a la comunicación del procesador de una manera que un SSD, incluso con PCIe avanzado, aún no replica.
¿Un regreso del “disco RAM”? La idea vuelve a la conversación
El artículo plantea una pregunta provocadora: si el almacenamiento sigue aumentando su velocidad, ¿podría algún día funcionar como una memoria de tercer nivel, similar en experiencia a un disco RAM? En términos simples, un disco RAM es una unidad virtual que el sistema operativo trata como si fuera un SSD o un disco duro, pero que en realidad usa una porción de RAM.
La desventaja clásica del disco RAM es la volatilidad: si se va la luz, su contenido desaparece. Aun así, antes de la adopción masiva de SSD, fue una solución costosa pero útil para sistemas que no podían esperar a discos mecánicos, especialmente cuando las aplicaciones necesitaban alta velocidad sostenida.
La masificación de SSD rápidos volvió innecesario al disco RAM en la mayoría de los casos. Pero la nueva generación de unidades, con rendimientos que empiezan a parecerse a la memoria en transferencias secuenciales, reabre el debate desde otro ángulo: ahora se habla de almacenamiento secundario con desempeño “casi RAM”, pero con mayor capacidad y persistencia.
How-To Geek menciona un ejemplo que sirve para entender el concepto de “streaming justo a tiempo”: la PlayStation 5. En esa consola, un SSD de alta velocidad permite usar menos RAM del sistema porque los datos se transmiten rápidamente sin que el jugador perciba interrupciones, ya que los desarrolladores conocen con precisión el desempeño del almacenamiento objetivo.
Por qué la RAM sigue siendo imprescindible: latencia y acceso aleatorio
La comparación entre un SSD de MB/s 28.000 y un canal DDR4 puede resultar vistosa, pero solo mide una parte del rendimiento. La RAM mantiene ventajas decisivas que sostienen su rol en la jerarquía de memoria de cualquier computadora moderna.
La primera es la latencia. La RAM trabaja con latencias medidas en nanosegundos, mientras que los SSD se mueven en microsegundos. La diferencia parece pequeña a escala humana, pero para una CPU o una GPU representa un salto de alrededor de 1.000 veces, un factor que impacta directamente en la capacidad de mantener unidades de cómputo ocupadas.
La segunda gran ventaja es el acceso aleatorio, un comportamiento para el cual la RAM está diseñada. Un SSD puede ser muy rápido en un flujo secuencial, pero suele perder rendimiento cuando debe leer fragmentos dispersos. En muchas cargas reales, especialmente en sistemas operativos y aplicaciones generales, ese patrón aleatorio aparece con frecuencia.
Por último, el artículo apunta que la CPU se comunica con la RAM de manera distinta a como lo hace con un SSD. Aun así, deja abierta una posibilidad: a medida que PCIe avance y los SSD se hagan más rápidos, los arquitectos de sistemas podrían buscar nuevas formas de aprovechar ese rendimiento y mover fronteras dentro del diseño de plataformas.
Lo que deja este anuncio para el futuro del hardware
Más allá del récord de velocidad, el 9650 simboliza una tendencia: el almacenamiento y la memoria se acercan en ciertas métricas, impulsados por necesidades de IA y centros de datos. En ese terreno, el objetivo práctico es reducir el tiempo muerto del cómputo acelerado y mejorar la utilización de recursos.
Para el usuario final, este tipo de avances todavía se ve como hardware “exótico”. Aun así, el patrón histórico sugiere que los saltos que nacen en servidores terminan permeando al mercado masivo cuando bajan los costos y se estandarizan los ecosistemas.
En PC, a diferencia de una consola, no existe garantía uniforme sobre la velocidad del disco, y por eso suele requerirse más memoria como amortiguador. El artículo imagina un futuro en el que estas velocidades se vuelvan comunes y reduzcan la presión por aumentar RAM, aunque sin afirmar que la reemplacen.
Por ahora, el mensaje es doble: los SSD se vuelven cada vez más rápidos y relevantes en el rendimiento total de los sistemas, pero la RAM conserva ventajas estructurales. En la era de la IA, esa tensión entre capacidad, costo, latencia y ancho de banda seguirá definiendo qué hardware se compra y cómo se diseñan las plataformas.
ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.
Suscríbete a nuestro boletín
Artículos Relacionados
Hackers atacan apps y sitios web en Irán tras bombardeos de EEUU e Israel
Boicot a ChatGPT cobra fuerza tras acuerdo militar entre OpenAI y el Pentágono
Qualcomm lanza Snapdragon Wear Elite y apuesta por IA en el reloj: NPU real, 5G y mensajería satelital