NetApp Tech OnTap
     

Almacenamiento inteligente en caché y Flash Cache de NetApp

El uso inteligente del almacenamiento en caché ofrece una forma de desvincular el rendimiento del almacenamiento de la cabina de discos subyacente para reducir sustancialmente los costes y, al mismo tiempo, aligerar la carga administrativa del ajuste de rendimiento. NetApp ha sido pionera en el desarrollo de tecnologías de lectura y escritura en caché. Por ejemplo, los sistemas de almacenamiento de NetApp utilizan la NVRAM como registro de solicitudes de escritura entrantes, lo que permite que el sistema proporcione solicitudes de escritura a la memoria no volátil y responda a los host de escritura sin retrasos. Se trata de un método muy diferente al de otros proveedores, que colocan la escritura en caché a un nivel mucho más bajo de la pila de software.

Para el almacenamiento en caché de lectura, NetApp utiliza un método multinivel.

  • La caché del búfer del sistema en la memoria del sistema de almacenamiento proporciona la caché de lectura del primer nivel. Mediante algoritmos especiales se decide qué datos se conservan en la memoria y cuáles se cargan con anticipación para optimizar esta función.
  • Flash Cache de NetApp (anteriormente PAM II) ofrece una caché opcional de segundo nivel que acepta bloques a medida que la caché del búfer del sistema los va expulsando, para crear un gran pool de bloques de baja latencia.
  • FlexCache® proporciona la caché de lectura de tercer nivel, que crea un nivel de almacenamiento en caché independiente en la infraestructura de almacenamiento, escalando el rendimiento de lectura más allá de los límites de las funcionalidades de un sistema de almacenamiento único.

Los detalles técnicos de toda esta tecnología de lectura y escritura en caché se discuten junto a los entornos y las aplicaciones con las que funcionan mejor en un white paper reciente.

Este artículo se centra en la caché de lectura de segundo nivel. Flash Cache disminuye los costes de almacenamiento al reducir el número de discos necesarios para un determinado nivel de rendimiento hasta en un 75% y permitir la sustitución de discos de alto rendimiento por otras opciones más económicas. Puede darse un importante efecto de amplificación de la caché al utilizar Flash Cache junto a la deduplicación de NetApp o a las tecnologías FlexClone, con un significativo aumento del número de aciertos en caché y una reducción de la latencia media.

Módulo de Flash Cache de 512 GB

Figura 1) Módulo de Flash Cache de 512 GB.

 

 

Funcionamiento de Flash Cache

El aspecto más importante que hay que conocer sobre Flash Cache, y sobre el almacenamiento de lectura en caché en general, es la enorme diferencia de latencia de lecturas desde memoria frente a las lecturas desde disco. La latencia se reduce 10 veces en un acierto en Flash Cache y hasta 100 veces en el caso de un acierto en caché de búfer de sistema, en comparación con una lectura de disco.

Impacto de la caché de búfer de sistema y de Flash Cache en la latencia de lectura

Figura 2) Impacto de la caché de búfer de sistema y de Flash Cache en la latencia de lectura.

En principio, Flash Cache es muy similar al módulo de aceleración de rendimiento de primera generación PAM I de NetApp. La diferencia más importante es que, gracias a la economía y a la densidad de las memorias flash, Flash Cache tiene una capacidad mucho mayor que los módulos PAM I basados en DRAM de la generación anterior. Flash Cache está disponible en módulos de 256 GB o 512 GB. Según el modelo de sistema de almacenamiento de NetApp, la configuración máxima admite hasta 4 TB de almacenamiento en caché (frente a los 80 GB de PAM I). Por supuesto, en la práctica, esto se traduce en una gran diferencia en la cantidad de datos que se pueden almacenar, lo que implica una mejora del impacto del almacenamiento en caché en aplicaciones de todo tipo.

Flash Cache proporciona un alto nivel de interoperabilidad para que pueda utilizarse junto a cualquier aplicación de su entorno:

  • Funciona con cualquier protocolo de almacenamiento
  • Todo almacenamiento vinculado a una controladora está sujeto al almacenamiento en caché
  • Establezca prioridades de Calidad de servicio con FlexShare®
  • Funciona con controladoras de almacenamiento abierto V-Series

 

 

Cómo funciona Flash Cache

Data ONTAP® utiliza Flash Cache para alojar bloques expulsados de la caché del búfer de sistema. Esta característica permite que el software de Flash Cache funcione perfectamente con la caché de lectura de primer nivel. A medida que los datos fluyen desde la caché del búfer de sistema, las prioridades y la categorización aplicadas a los datos permiten que Flash Cache decida lo que la caché puede admitir.

Con Flash Cache, un sistema de almacenamiento comprueba en primer lugar si se ha almacenado una lectura solicitada en uno de los módulos instalados antes de generar una lectura de disco. Data ONTAP mantiene un conjunto de etiquetas de caché en la memoria del sistema y puede determinar si Flash Cache contiene el bloque deseado sin acceder a tarjetas, lo que acelera el acceso a Flash Cache y reduce la latencia. La clave del éxito radica en los algoritmos que se utilizan para decidir lo que va a la caché.

Por defecto, los algoritmos de Flash Cache intentan distinguir los datos de valor alto leídos aleatoriamente de los datos de valor bajo o secuenciales y mantiene esos datos en la caché para evitar largas lecturas de disco. NetApp ofrece la posibilidad de cambiar el comportamiento de la caché para cumplir requisitos únicos. Los tres modos de funcionamiento son:

  • Modo predeterminado. El modo normal de funcionamiento de Flash Cache almacena los datos y los metadatos del usuario, de forma similar a la política de almacenamiento de la caché del búfer de sistema. En el caso de los protocolos de servicio de archivos como NFS y CIFS, los metadatos incluyen los datos necesarios para conservar la estructura de archivos y directorios. Con SAN, los metadatos incluyen el pequeño número de bloques utilizados para llevar la cuenta de los datos en una LUN. Este modo funciona mejor si el tamaño de los datos activos establecidos es equivalente al tamaño de Flash Cache o menor que este. También sirve de ayuda cuando existen puntos de acceso frecuente a datos y permite que los datos residan en la caché.
  • Modo de metadatos. En este modo solo se almacenan en la caché los metadatos del sistema de almacenamiento. En algunas situaciones, los metadatos se reutilizan más frecuentemente que los bloques de datos específicos almacenados en la caché. El almacén de metadatos en la caché puede tener ventajas significativas en el rendimiento y es especialmente útil cuando el conjunto de datos es de gran tamaño, compuesto de muchos archivos pequeños, o bien si la porción activa del conjunto de datos es muy dinámica. Almacenar metadatos en la caché puede funcionar en casos de conjuntos de datos demasiado grandes para que se puedan almacenar en la caché de forma eficiente (es decir, que el conjunto de datos activo supera el tamaño de la caché instalada). El modo de metadatos es el más restrictivo en lo que respecta a qué datos están permitidos en la caché.
  • Modo de prioridad baja. En el modo de prioridad baja, el almacenamiento en caché está activado no solo para los datos y metadatos de usuario normales sino también para datos de baja prioridad que normalmente quedarían excluidos. Los datos de prioridad baja de esta categoría incluyen lecturas y datos secuenciales que se han escrito recientemente. La gran cantidad de memoria de caché adicional ofrecida por Flash Cache puede permitir que las lecturas secuenciales y los datos de reciente escritura se almacenen sin afectar negativamente a otros datos almacenados en la caché. Este es el modo de funcionamiento menos restrictivo de Flash Cache.

Impacto del tamaño de la caché

Figura 3) Impacto del tamaño de la caché y del tipo de datos almacenados en la caché en el rendimiento.

Mediante Predictive Cache Statistics (PCS) de NetApp, una función de Data ONTAP 7.3 y versiones posteriores, puede determinar si Flash Cache mejorará el rendimiento de sus cargas de trabajo y decidir qué cantidad de almacenamiento en caché adicional necesita. PCS también permite probar los diferentes modos de funcionamiento para determinar qué modo es el más recomendable: predeterminado, de metadatos o de prioridad baja.

Encontrará toda la información sobre Flash Cache de NetApp, incluido PCS, en TR-3832: guía de mejores prácticas de Flash Cache y PAM.

 

Flash Cache y la eficiencia del almacenamiento

Flash Cache de NetApp mejora la eficiencia del almacenamiento de dos maneras importantes:

  • El almacenamiento inteligente en caché permite utilizar un menor número de discos o discos más baratos.
  • Algunas funciones de eficiencia del almacenamiento de NetApp crean un efecto de amplificación de la caché en los bloques de almacenamiento compartidos que aumentan el valor de los bloques almacenados en ella.

Amplificación de la caché en un entorno de infraestructura virtual que demuestra las ventajas de tener bloques deduplicados en la caché.

Figura 4) Amplificación de la caché en un entorno de infraestructura virtual que demuestra las ventajas de tener bloques deduplicados en la caché.

Muchas aplicaciones tienen niveles altos de duplicación de bloques. El resultado es que no solo se acaba desperdiciando espacio de almacenamiento con bloques idénticos sino que también se desperdicia espacio de la caché con el almacén de bloques idénticos en la caché del búfer de sistema y en Flash Cache. La deduplicación de NetApp y la tecnología FlexClone de NetApp mejoran el valor del almacenamiento en caché mediante la eliminación de la duplicación de bloques y el aumento de las probabilidades de acierto en caché. La deduplicación identifica y sustituye los bloques duplicados en el almacén principal apuntando a un bloque único. FlexClone permite evitar la duplicación que normalmente resulta de copiar volúmenes, LUN o archivos individuales, por ejemplo, para funciones de desarrollo y prueba. En ambos casos, el resultado final es que un bloque único puede tener varios punteros. Cuando este tipo de bloques se encuentran en la caché, la probabilidad de que vuelva a solicitarse es mucho más alta.

La amplificación de la caché cuenta con ventajas especialmente si se combina con la virtualización de servidores y puestos de trabajo. En ese contexto, la amplificación de la caché también se conoce como Uso compartido transparente de la caché de almacenamiento (TSCS) como analogía al uso compartido transparente de páginas (TPS) de VMware.

El uso de Flash Cache puede hacer disminuir significativamente los costes de los discos que compre y aumentar la eficiencia de su entorno de almacenamiento. Las pruebas en un entorno de servicios de archivos de Windows® demostró lo siguiente:

  • La combinación de Flash Cache con discos Fibre Channel o SAS puede mejorar el rendimiento, a la vez que se reduce la utilización de discos en un 75% y disminuye el precio de las adquisiciones en un 54%, además de ahorrar un 67% en potencia y espacio.
  • La combinación de Flash Cache con discos SATA puede ofrecer el mismo rendimiento que los discos Fibre Channel o SAS y una mayor capacidad, a la vez que reduce el coste por TB de almacenamiento en un 57% y se ahorra un 66% en potencia y un 59% en espacio.

 

Flash Cache en el mundo real

Flash Cache y otras tecnologías de almacenamiento inteligente en la caché de NetApp pueden beneficiar a un gran número de entornos y aplicaciones de TI.

Tabla 1) Aplicabilidad de almacenamiento inteligente en caché a varios entornos y aplicaciones.
(Los enlaces están relacionados con referencias para cada entorno/aplicación.)

Entorno/aplicaciónCaché de escrituraCaché de lecturaFlash CacheFlexCache
Virtualización de servidores/puestos de trabajoXXXX
Cloud computingXXXX
Oficina remotaXX X
Base de datosXXX 
Dirección de correo electrónicoXXX 
Servicios de archivosXXXX
Aplicaciones de ingeniería y técnicas
Gestión del ciclo de vida del productoXXX 
Exploración de petróleo y gasXXX 
Desarrollo de softwareXXXX
Automatización de diseño electrónicoXXXX
RenderizadoXXXX

 

VIRTUALIZACIÓN DE SERVIDORES Y PUESTOS DE TRABAJO

Tanto la virtualización de servidores como la infraestructura de puesto de trabajo virtual (VDI) presentan unos requisitos de rendimiento de almacenamiento únicos que se pueden satisfacer con el almacenamiento en caché. Siempre que necesite arrancar un gran número de equipos virtuales a la vez, por ejemplo, durante el inicio diario de los puestos de trabajo o, en el caso de la virtualización de servidores, después de un fallo o reinicio, puede crear una carga de almacenamiento significativa. Un número elevado de inicios de sesión y detecciones de virus también puede suponer grandes cargas de I/O.

Por ejemplo, un banco regional tenía más de 1000 puestos de trabajo de VMware View y estaba experimentando importantes problemas de rendimiento en el almacenamiento con su entorno anterior, a pesar de contar con 300 discos. Cuando se remplazó ese entorno por una solución de NetApp con solo 56 discos y Flash Cache, las pérdidas por operaciones de reinicio disminuyeron de 4/5 horas a tan solo 10 minutos. Los problemas con los servidores VDI que no reaccionaban simplemente desaparecieron y los inicios de sesión, que antes había que escalonar, ahora se completan en solo 4 segundos. La incorporación del almacenamiento inteligente en caché de NetApp ofreció al banco un mayor rendimiento a un menor coste.

Estos resultados se deben en gran medida a la amplificación de la caché. Debido al alto grado de duplicación en entornos virtuales (que resultan de tener muchas copias casi idénticas de los mismos sistemas operativos y aplicaciones), pueden experimentar un grado extremadamente alto de amplificación de caché con bloques de datos compartidos. Elimine la duplicación aplicando la deduplicación de NetApp a su entorno virtual existente o con la instalación de un nuevo entorno virtual mediante la función de aprovisionamiento y clonado de Virtual Storage Console v2.0 de NetApp para clonar de forma eficiente sus equipos virtuales con el fin de que cada equipo con el mismo sistema operativo "guest" comparta los mismos bloques. En cualquier caso, una vez se haya leído el conjunto de bloques virtuales en la caché, el acceso de lectura se acelera para todos los equipos virtuales.

CLOUD COMPUTING

Debido a que la mayoría de infraestructuras de cloud están construidas sobre la virtualización de servidores, los entornos de cloud experimentarán muchos de los mismos beneficios del almacenamiento inteligente en caché. Además, la combinación de almacenamiento inteligente en caché y FlexShare permite definir completamente las clases de servicio de los diferentes clientes del almacenamiento compartido en un entorno de cloud multi-tenancy, lo que puede expandir significativamente su capacidad para ofrecer las TI como servicio.

BASE DE DATOS

El almacenamiento inteligente en caché ofrece ventajas significativas también en entornos de procesamiento de transacciones en línea. Un white paper reciente de NetApp estudió dos métodos para mejorar el rendimiento en un entorno OLTP condicionado por las operaciones de I/O: incorporación de discos adicionales o incorporación de Flash Cache. Ambos enfoques fueron efectivos para impulsar el rendimiento general del sistema. La configuración de Flash Cache:

  • Costes un 30% menores que el mismo sistema con disco adicional.
  • Reduce la latencia media de I/O de 27,5 milisegundos a 16,9 milisegundos.
  • No consume energía adicional o espacio de rack (la configuración con disco adicional los aumenta en más de un factor de 2).

CORREO ELECTRÓNICO

Los entornos de correo electrónico con grandes cantidades de usuarios pasan a utilizar grandes cantidades de datos rápidamente. Como en el caso de los entornos de bases de datos, la incorporación de Flash Cache puede potenciar significativamente el rendimiento por una fracción del coste de añadir más discos. Por ejemplo, según resultados recientes de NetApp con Microsoft® Exchange 2010, la incorporación de Flash Cache dobló el número de IOP que se consiguieron y la cantidad admitida de buzones de correo aumentó en un 67%. Estos resultados se detallarán en TR-3865: Uso de Flash Cache para Exchange 2010, de publicación en septiembre de 2010.

EXPLORACIÓN DE PETRÓLEO Y GAS

Existe una gran cantidad de aplicaciones técnicas y científicas que también se benefician de Flash Cache de forma significativa. Por ejemplo, una caché inteligente de gran tamaño puede acelerar significativamente el procesamiento y eliminar los cuellos de botella durante el análisis de los conjuntos de datos sísmicos, necesarios para la exploración petrolífera y de gas.

Una empresa energética independiente instaló hace poco el software Schlumberger Petrel 2009 y el de almacenamiento de NetApp como ayuda para evaluar posibles localizaciones para la perforación. (Un reciente white paper conjunto describe las ventajas del almacenamiento de NetApp usado en combinación con Petrel.)

La empresa utiliza varias tarjetas de 512 GB de Flash Cache de NetApp en cinco sistemas de almacenamiento FAS6080 con unidades de disco SATA. Su entorno de trabajo sísmico compartido ha experimentado una tasa de aciertos del 70%, lo que significa que durante el 70% del tiempo, los datos solicitados ya están en la caché. Las aplicaciones que solían tardar 20 minutos solo en abrirse y cargarse ahora lo hacen en tan solo 5 minutos. Lea más información en un caso de cliente reciente.

Conclusión

Flash Cache de NetApp sirve como caché de lectura opcional de segundo nivel que acelera el rendimiento de una amplia gama de aplicaciones comunes y reduce costes al disminuir el número de discos de disco necesarios o al permitir el uso de discos de capacidad optimizada en lugar de discos de rendimiento optimizado. El uso de menos unidades de disco de mayor tamaño con Flash Cache pued reducir el precio de compra de un sistema de almacenamiento y proporcionar un ahorro continuo por espacio de rack, electricidad y refrigeración. La efectividad del almacenamiento de lectura en caché se amplifica al utilizarse conjuntamente con las tecnologías de deduplicación de NetApp o de FlexClone, ya que la probabilidad de un acierto en caché aumenta de forma significativa al compartir bloques de datos.

Para obtener más información sobre las tecnologías de almacenamiento inteligente de NetApp, consulte nuestro reciente white paper.

 ¿Qué opina sobre Flash Cache?

Formule preguntas, intercambie ideas y comparta sus opiniones en las comunidades en línea de NetApp.

Mark Woods

Mark Woods
Director de Marketing de Producto
NetApp

Mark cuenta con más de 15 años de experiencia en la gestión de productos y marketing. Antes de unirse a NetApp, Mark trabajó para Hewlett-Packard en negocios de servidores. Es licenciado en Ingeniería eléctrica por la Universidad de Colorado, además de contar con un MBA por la Universidad de Texas.

Amit Shah

Amit Shah
Director Jefe del Producto
NetApp

Amit cuenta con más de 20 años de experiencia en ingeniería y gestión de productos. Antes de unirse a NetApp, trabajó en varias empresas importantes y en otras en sus inicios, incluidas HP (Agilent), Mylex, QLogic, Rhapsody Networks, Candera Systems y Unisys. Es licenciado en Ingeniería eléctrica por la Rutgers University y cuenta con un MS en Ingeniería eléctrica por la Farleight Dickinson University.

Paul Updike

Paul Updike
Ingeniero Técnico de Marketing
NetApp

Durante sus 18 años en TI, Paul ha trabajado en numerosos entornos de alto rendimiento, académicos y de ingeniería. Desde que se unió a NetApp hace ocho años, se ha centrado en Data ONTAP y en las mejores prácticas para el rendimiento de los sistemas de almacenamiento.

 
En profundidad