Cambios en el mercado del almacenamiento

Cambios en el mercado del almacenamiento

por

Se vienen grandes cambios en el mercado del almacenamiento, de la mano de la masificación de los discos de estado sólido. ¿Qué cuál es su ventaja?… bueno, ser de estado sólido y también… eeeh bueno, está lo de la solidez. Ok, si eres uno de los que no podría responder la pregunta, no estaría de más leer el siguiente artículo para entender mejor el panorama.

 

Introducción

La mayor parte de la gente piensa en la teoría de la evolución como  un lento proceso gradual que introdujo cambios en cada generación. En realidad, en la actualidad algunos piensan que esos cambios fueron bastante más bruscos. En una generación la gente era Neanderthal y la siguiente nacía al estilo Cro Magnon. Otros malintencionados piensan que si un Neanderthal tenía un hijo Cro Magnon, seguramente se debía a que su esposa lo engañaba… pero en fin, lo importante es que mientras para algunos componentes de nuestro PC -como sucede con los CPU- los cambios han sido graduales, para los discos duros ocurre justamente lo contrario. No es exagerado decir que, platos más platos menos, rpm más rpm menos, y distintos tipos de conectores, los discos duros normales son el mismo artefacto que eran hace 20 años.

Justamente por la falta de innovación durante tanto tiempo es que el cambio que está teniendo lugar, tímidamente al principio, y más bruscamente en la actualidad, se nota tanto. Nos da por pensar que, si dependiera de la industria de los discos duros, todo seguiría igual que siempre por toda la eternidad. Sin embargo, el mercado va en una dirección y los fabricantes de discos duros  están más bien obligados a seguirlo. Durante dos décadas los fabricantes de discos duros ofrecieron progresivamente más, pero siempre más de lo mismo: más espacio, y un poco más de velocidad, nada del otro mundo eso sí.

Hoy, toda esa industria está enfocada en ofrecer no sólo más de lo mismo, sino a volcarse progresivamente en un nuevo enfoque que privilegia la disminución del consumo, seguridad en los datos, reducción de peso, reducción de espacio y menor costo de operaciones I/O por GB de un dispositivo de almacenamiento.

 
Pensemos un poco el siguiente ejemplo, que para un usuario casero es lejano pero a nivel de empresas es bastante familiar. Pensemos que tenemos respaldos que acumulan todo un  Petabyte (~ 1 Millón de GB). Si quisiésemos restaurarlas, a 1GB/s necesitaríamos 12 días. Pensemos por ejemplo en el tiempo que demora leer por completo un disco duro: de manera secuencial puede tomar 15 horas, pero de manera aleatoria, puede tomar de 15 a 150 días.

En el contexto actual, en donde las necesidades del mercado son mucho mayores en términos de operaciones por unidad de tiempo y tiempos de acceso, este orden de magnitud en los intervalos de tiempo es inaceptable, y se hace completamente necesario un salto cuántico en cuanto a las capacidades de los medios de almacenamiento. 

Miremos un poco el siguiente gráfico. La saludable parábola púrpura muestra cómo ha evolucionado el rendimiento de los CPU desde 1996 hasta ahora. Sin arrugarnos podemos decir que hoy tenemos en una máquina promedio 30 veces más potencia de procesamiento que en ese entonces: es un 3000% de aumento. 

Por la contraparte, si hacemos la misma comparación respecto de los discos duros, tenemos que el rendimiento actual ha aumentado en apenas un 30%. ¿Tiene sentido que una plataforma evolucione de manera que uno de sus componentes clave progrese 100 veces más rápido que otro? 

 

 

 Lo malo es que entre identificar el problema y dar con una solución, puede haber un largo trecho, y aunque el problema era conocido desde hace mucho, no fue sino hasta hace poco que la solución ha sido encontrada en los dispositivos de estado sólido, basados en memoria NAND Flash.

 Ahora bien,  uno dice “discos de estado sólido” y todos piensan que por su costo prohibitivo  no son, hoy en día, una alternativa real, y que no lo serán mientras no se igualen los precios a los discos de platos magnéticos convencionales. Esto es cierto sólo en parte. Verán, cuando hablamos de datos fríos, archivos que una vez copiados estarán ahí por largos años con poco o ningún movimiento -como pueden ser, por ejemplo, tus fotos o tu música- los discos convencionales ofrecen una excelente relación en costo por rendimiento, toda vez que ese rendimiento que se les exige es, con todo respeto para los usuarios caseros, paupérrimo.

 Por el contrario, cuando la velocidad de acceso a los datos vale plata, y prácticamente la totalidad de los datos será escrito y reescrito muy seguido, la mejor velocidad de un arreglo de discos de estado sólido paga con creces el mayor precio. Es tironeado por estas necesidades que el mercado de los discos SSD toma forma.

Sin embargo, no estamos seguros de lo relevante que pueda ser enfocar este artículo en las maravillas de un producto que, como no sea en el mercado corporativo, es un bien suntuario para los usuarios caseros. Dicho de otra manera, muchos usuarios no podrán cambiarse al uso de discos sólidos propiamente tales, pero calma: la industria tiene contemplado un generoso abanico de soluciones de transición, en la forma de discos híbridos, pequeños discos flash soldados a la placa, discos SSD propiamente tales y, claro, una combinación de éstos.

La siguiente imagen representa  un resumen de lo ya dicho: en el fondo tendremos nuevas capas de memoria, consistentes en soluciones del tipo Turbo Memory que es una cantidad X de memoria NAND Flash soldada a la placa madre y una nueva capa discreta compuesta por discos SSD puros o discos Híbridos. Estos discos híbridos pueden tener incluso DRAM en su interior pero el ancho de banda de las interfaces limita ampliamente esta solución, por lo que se espera que los discos híbridos incorporen memoria NAND Flash.

 

 

¿Pero… cuáles son las ventajas concretas? 

Esta es una buena pregunta. Para muchos usuarios, un disco SSD puede ser un invento simpático, que a falta de piezas móviles ofrece un funcionamiento silencioso y con menor consumo eléctrico pero ¿Qué tanto mejor es con respecto a un disco convencional? Mal que mal, hasta el mejor disco SSD tiene como límite teórico el ancho de banda del puerto al cual se conecte. Aunque esto es, a grandes rasgos, correcto, hay otras ventajas que se tienden a pasar por alto.

 Hay más de un parámetro en común que permite comparar la ubicación en el mapa del costo/beneficio de diferentes dispositivos. Por poner un ejemplo, si tenemos que comparar la memoria RAM con los discos duros, tenemos dos factores básicos: el costo por GB, que favorece ampliamente a un disco duro, y por la contraparte la latencia, en donde la ventaja de la RAM es abrumadora.

 Si nos disponemos a graficar la
posición de un disco SSD en un mapa en donde los ejes son el costo por GB contra la latencia, veremos que -como se muestra en la imagen siguiente-  un disco de estado sólido entrega 100 veces menor latencia con un aumento de apenas 5 veces en el costo por GB almacenado.

 

 

Aunque a la hora de transferir un sólo gran archivo lo que más influye es la tasa de transferencia “a velocidad crucero” por decirlo así, cuando se trata de acceder simultáneamente a miles de pequeños archivos -como puede pasar con un servidor- la latencia pesa, y pesa mucho.

 Si tuviésemos que señalar, entonces, las ventajas de un disco SSD, pensamos que los puntos más destacables son:

– Baja Latencia
– Bajo consumo eléctrico -> bajas temperaturas
– Mayor densidad
– Mayor resistencia
– Bajo Costo (en dinero) por operación de transferencia de datos
– Sirve para todos los segmentos

 

 

¿Hacia donde van los Discos de Estado Sólido?

 

Un aspecto que, sin ser una debilidad, es como mínimo una ventaja potencial no aprovechada, es lo que respecta a la velocidad de transferencia tope. En este minuto, los discos de estado sólido constan de un arreglo de memorias NAND Flash que leen y escriben simultáneamente en varios bancos, maximizando la velocidad de transferencia. Sin embargo, las velocidades ofrecidas se encuentran cerca de los 50MB/s en escritura  y los 80MB/s en lectura, lo cual viene siendo un mediocre empate técnico con sus primos magnéticos tradicionales. Aunque hay honrosas excepciones como los discos Mtron que buscan solucionar esto, el promedio de la industria todavía tiene una asignatura pendiente en este tema.

Ahora bien, lo cierto es que el problema no es difícil de solucionar, o al menos, su esencia dista de ser un misterio: el tema se centra en el controlador de memorias, el cual es el encargado de manejar las operaciones de escritura y lectura. Para entender mejor qué esperar hay que entender qué es lo que más exigimos a nuestro disco duro hoy en día.

La mayor parte del uso de un disco duro y en donde los discos SSD harán grandes avances en poco tiempo es en la lectura. Normalmente uno lee para las siguientes tareas: Tiempos de carga en juegos y aplicaciones, carga del sistema operativo, reproducción de vídeo, reproducción de música. Para reforzar este aspecto, el camino es bastante directo: incluir varios controladores de memoria para lectura. Su funcionamiento es relativamente simple pues se estará accediendo a datos no exclusivos:  varios controladores de memoria pueden estar leyendo el mismo sector de la memoria sin generar problema alguno. En teoría, mediante la inclusión de varios controladores de lectura el rendimiento de la tarea que más utilizamos en nuestros discos duros debiera aumentar de forma notoria.

Ahora bien, si es tan simple como agregar controladores de  memoria, entonces no le  pongamos dos, ni cuatro, que sean 20 para que no se note pobreza. Y sabe qué más, no nos limitemos a los controladores de lectura: pongámosle otros 20 de escritura para apurar el paso.

 Si usted es de los que tuvo esa idea al leer este artículo, nos veremos obligados a indicarle que agregar controladores de escritura no es de ninguna manera tan simple como agregar controladores de lectura. Hay que tener en cuenta que algo que no queremos que llegue a pasar nunca es el escribir  2 veces un mismo sector pues perderíamos información. El último que escribe es el que se impone.

“Ah, pero para qué nos complicamos: hagamos que cada controlador de escritura domine un sector, de manera que no se estorben entre sí. Y si prefieren, particionemos el disco para mayor seguridad”. Por desgracia, esa tampoco es la solución. Es más, sabíamos que alguien saldría con esa idea así que estudiamos el porqué no es la panacea. Verán, al hacer algo como eso, se acortaría sobremanera el ciclo de vida del disco SSD, el cual se ha de calcular según la siguiente fórmula.

 

 
En donde:

Capacidad es… bueno, el espacio que ofrece el disco SSD (doh!),
N es la cantidad de veces que se puede escribir la memoria (escrituras máximas antes de fallecer)
A es el ancho de banda de escritura.

Cabe destacar que la estimación tradicional para N es de un millón de veces. La fórmula nos dice que  duplicar el ancho de banda de escritura, así, de buenas a primeras, implica reducir la vida del disco a la mitad. 

¿Significa esto que, hagan lo que hagan, no se puede mejorar la tasa de escritura sino solamente la de lectura? No es tan así, querido lector. El problema tiene solución, sólo que no es barata. En aplicaciones en donde sea realmente imperioso escribir a gran velocidad -de nuevo, el ejemplo son cierta clase de servidores- la opción será construir grandes arreglos RAID de discos SSD. Según los expertos, el nivel de complejidad de sincronizar el funcionamiento en RAID 0 de hasta 12 discos SSD es aceptable. Por encima de esa cantidad entran a pesar factores que complican el arreglo.

 

En fin, tal vez nos hemos extendido demasiado para ser un artículo destinado a abrir la semana con una lectura interesante. Esperamos dejar la puerta abierta para que el tema quede en el centro de la “opinión pública geek” y por supuesto, los invitamos a comentar este artículo o bien debatir este tema…

…en nuestro foros de discusión.

 

Fuente: Presentaciones IDF + ideas de Metro+artículo “El futuro de los discos duros ”  by Unreal.