NetApp Tech OnTap
     

Mise en cache intelligente et cache Flash NetApp

L'utilisation intelligente de la mise en cache est un moyen de découpler les performances de stockage du nombre de disques se trouvant dans la baie de disques sous-jacente dans le but d'améliorer considérablement les coûts et, dans le même temps, de réduire la charge administrative relative au réglage des performances. NetApp est leader dans le développement de technologies innovantes de mise en cache de lecture et d'écriture. Par exemple, les systèmes de stockage NetApp utilisent la NVRAM en tant que journal des demandes d'écriture entrantes, ce qui permet au système de valider des demandes d'écriture en mémoire non volatile et de répondre sans attente aux hôtes d'écriture. Cette approche est très différente de celle des autres fournisseurs qui, en règle générale, placent la mise en cache d'écriture très loin dans la pile logicielle.

Pour la mise en cache de lecture, NetApp fait appel à une approche à plusieurs niveaux.

  • Le cache de lecture de premier niveau est fourni par le cache du tampon système dans la mémoire du système de stockage. Des algorithmes spéciaux décident des données à conserver dans la mémoire et des données à prérécupérer pour optimiser cette fonction.
  • Le cache Flash NetApp (précédemment connu sous le nom de PAM II) propose un cache de deuxième niveau en option et accepte les blocs à mesure qu'ils sont éjectés du cache du tampon système afin de créer un grand pool de blocs à faible latence.
  • Le cache de lecture de troisième niveau est fourni par NetApp FlexCache® qui crée un niveau de mise en cache distinct au sein de votre infrastructure de stockage, ce qui fait évoluer les performances de lecture au-delà des limites des capacités d'un système de stockage unique.

Les détails techniques de toutes ces technologies de mise en cache de lecture et d'écriture ainsi que les environnements et applications adaptés à leur bon fonctionnement sont présentés dans un récent livre blanc.

Cet article met l'accent sur notre cache de lecture de deuxième niveau. Le cache Flash peut abaisser vos coûts de stockage en réduisant le nombre de piles de disques nécessaires pour un niveau de performances donné de l'ordre de 75 % et en vous permettant de remplacer des disques hautes performances par des options plus économiques. Un effet important d'amplification du cache peut se produire lorsque vous utilisez le cache Flash avec la déduplication NetApp ou les technologies FlexClone®, augmentant ainsi considérablement le taux de réussite en cache et réduisant la latence moyenne.

Module de cache Flash de 512 Go

Figure 1) Module de cache Flash de 512 Go.

 

 

Comprendre le cache Flash

L'élément le plus important à retenir concernant le cache Flash, et la mise en cache de lecture en règle générale, est l'exceptionnelle différence de latence pour les lectures depuis la mémoire par rapport aux lectures à partir des disques. La latence est divisée par 10 pour un résultat de cache Flash et par 100 pour un résultat de cache du tampon système par rapport à une lecture de disque.

Impact du cache du tampon système et du cache Flash sur la latence de lecture

Figure 2) Impact du cache du tampon système et du cache Flash sur la latence de lecture.

Dans le principe, le cache Flash est très similaire au module d'accélération des performances de première génération de NetApp, PAM I. La principale différence est que, en raison de l'économie et de la densité de la mémoire Flash, les modules cache Flash disposent d'une capacité largement supérieure par rapport aux modules PAM I DRAM de génération précédente. Le cache Flash est disponible sous la forme de modules de 256 ou 512 Go. Selon votre modèle de système de stockage NetApp, la configuration maximale prend en charge jusqu'à 4 To de cache (contre 80 Go pour PAM I). Dans les faits, cela se traduit bien évidemment par une grande différence sur la quantité de données pouvant être mises en cache, ce qui améliore l'impact de la mise en cache sur les applications de tous types.

Le cache Flash offre un niveau élevé d'interopérabilité de sorte à fonctionner avec tous les éléments déjà présents dans votre environnement :

  • Il fonctionne avec tous les protocoles de stockage.
  • L'intégralité d'un stockage lié à un contrôleur est soumise à la mise en cache.
  • Vous pouvez définir des priorités de qualité de service avec FlexShare®.
  • Il fonctionne avec les contrôleurs de stockage ouverts V-Series.

 

 

Fonctionnement du cache Flash

Data ONTAP® utilise le cache Flash pour conserver les blocs expulsés du cache du tampon système. Ainsi, le logiciel du cache Flash peut fonctionner de manière transparente avec le cache de lecture de premier niveau. À mesure que les données quittent le cache du tampon système, les priorités et la catégorisation déjà effectuées sur les données permettent au cache Flash de prendre une décision sur les éléments à accepter ou non dans le cache.

Avec le cache Flash, un système de stockage vérifie tout d'abord si une lecture demandée a été mise en cache dans l'un de ses modules installés avant de lancer une lecture de disque. Data ONTAP assure la maintenance d'un ensemble de marqueurs de cache dans la mémoire système et peut déterminer si le cache Flash contient le bloc souhaité sans accéder aux cartes, ce qui accélère l'accès au cache Flash et réduit la latence. La clé du succès réside dans les algorithmes utilisés pour décider des éléments à placer dans le cache.

Par défaut, les algorithmes du cache Flash tentent de faire la distinction entre les données de grande valeur lues de manière aléatoire et les données séquentielles et/ou de faible valeur. Ils conservent également ces données en cache pour éviter les lectures de disque chronophages. NetApp offre la possibilité de modifier le comportement du cache en fonction d'exigences uniques. Il existe trois modes de fonctionnement :

  • Mode par défaut. Le mode de fonctionnement normal du cache Flash met en cache les données utilisateur et les métadonnées, de la même façon que la règle de mise en cache du tampon système. Pour les protocoles de service de fichiers tels que NFS et CIFS, les métadonnées incluent les données requises pour la maintenance de la structure des fichiers et des répertoires. Avec SAN, les métadonnées incluent le petit nombre de blocs utilisés pour la gestion des données dans une LUN. Ce mode est particulièrement adapté lorsque la taille de l'ensemble de données actif est inférieure ou égale à la taille du cache Flash. Il est également utile en cas de zones réactives de données faisant l'objet d'accès fréquents et il permet aux données de résider dans le cache.
  • Mode de métadonnées. Dans ce mode, seules les métadonnées du système de stockage sont mises en cache. Dans certains cas, les métadonnées sont réutilisées plus fréquemment que des blocs de données spécifiques mis en cache. La mise en cache des métadonnées peut avoir un avantage important sur les performances et elle est particulièrement utile lorsque le jeu de données est très volumineux, composé d'un grand nombre de petits fichiers ou encore lorsque la portion active du jeu de données est très dynamique. La mise en cache des métadonnées peut fonctionner parfaitement pour les jeux de données trop volumineux pour une mise en cache efficace (c'est-à-dire si le jeu de données actif dépasse la taille du cache installé). Le mode de métadonnées est le plus restrictif en termes des types de données autorisés dans le cache.
  • Mode à priorité basse. En mode à priorité basse, la mise en cache est non seulement activée pour les données utilisateur et les métadonnées « normales », mais également pour les données à priorité basse qui seraient normalement exclues. Les données à priorité basse de cette catégorie incluent les lectures séquentielles volumineuses et les données récemment inscrites. La quantité importante de mémoire cache supplémentaire fournie par le cache Flash peut permettre de stocker les lectures séquentielles et les nouvelles données inscrites sans impact négatif sur les autres données mises en cache. Ce mode de fonctionnement est le moins restrictif du cache Flash.

Impact de la taille du cache

Figure 3) Impact de la taille du cache et du type de données mises en cache sur le débit.

NetApp Predictive Cache Statistics (PCS), une fonction de Data ONTAP 7.3 et versions ultérieures, permet de déterminer si le cache Flash peut améliorer les performances de vos charges de travail et de définir le cache supplémentaire dont vous avez besoin. PCS vous permet également de tester les différents modes de fonctionnement afin de déterminer le plus adapté : par défaut, métadonnées ou à priorité basse.

Pour plus d'informations sur le cache Flash NetApp, notamment PCS, reportez-vous à l'article
TR-3832 : cache Flash et au Guide des meilleures pratiques PAM.

 

Cache Flash et efficacité du stockage

Le cache Flash NetApp améliore l'efficacité du stockage de deux manières importantes :

  • La mise en cache intelligente vous permet d'utiliser un plus petit nombre de disques et/ou des disques moins coûteux.
  • Certaines fonctions d'efficacité du stockage NetApp génèrent un effet appelé « amplification du cache » pour les blocs de stockage partagés qui augmente la valeur des blocs en cache.

Amplification du cache dans un environnement d'infrastructure virtuelle démontrant l'avantage d'avoir des blocs dédupliqués en cache

Figure 4) Amplification du cache dans un environnement d'infrastructure virtuelle démontrant l'avantage d'avoir des blocs dédupliqués en cache.

De nombreuses applications possèdent des niveaux élevés de duplication des blocs. Au final, vous perdez non seulement de l'espace de stockage en stockant des blocs identiques, mais vous gaspillez également de l'espace de cache en mettant en cache des blocs identiques dans le cache du tampon système et dans le cache Flash. La déduplication NetApp et la technologie NetApp FlexClone améliorent la valeur de la mise en cache en supprimant la duplication des blocs et en augmentant la probabilité des résultats de cache. La déduplication identifie et remplace les blocs en double dans votre stockage principal en ajoutant des pointeurs vers un seul bloc. FlexClone vous permet d'éviter la duplication généralement due à la copie de volumes, de LUN ou de fichiers individuels, notamment dans le cadre d'opérations de développement et de test. Dans ces deux cas, il peut arriver qu'un même bloc soit référencé par de nombreux pointeurs. Si ce bloc se trouve dans le cache, la probabilité qu'il soit à nouveau demandé est donc bien supérieure.

L'amplification du cache constitue un avantage tout particulier en association avec la virtualisation des serveurs et des postes de travail. Dans ce contexte, l'amplification du cache a également été appelée partage de cache de stockage transparent (TSCS), par analogie avec le partage de page transparent (TPS) de VMware.

L'utilisation du cache Flash peut considérablement réduire le coût de vos achats de disque et rendre votre environnement de stockage plus efficace. Des tests conduits dans un environnement de services de fichiers Windows® ont démontré les résultats suivants :

  • L'association du cache Flash avec des disques Fibre Channel ou SAS peut améliorer les performances tout en utilisant 75 % de piles de disques en moins et réduire le prix d'achat de 54 % tout en permettant d'économiser 67 % sur l'énergie consommée et l'espace utilisé.
  • L'association du cache Flash avec des disques SATA peut offrir les mêmes performances que les disques Fibre Channel ou SAS ainsi qu'une capacité supérieure tout en réduisant le coût par To de stockage de l'ordre de 57 % ainsi qu'en permettant d'économiser 66 % sur la consommation d'énergie et 59 % sur l'espace.

 

Le cache Flash dans la réalité

De nombreux environnements informatiques et applications tirent profit du cache Flash et d'autres technologies de mise en cache intelligente de NetApp.

Tableau 1) Applicabilité de la mise en cache intelligente dans divers environnements et applications.
(Les liens hypertexte sont liés à des références pour chaque environnement/application.)

Environnement/ApplicationCache d'écritureCache de lectureCache FlashFlexCache
Virtualisation des serveurs/bureauxXXXX
Cloud computingXXXX
Bureau distantXX X
Base de donnéesXXX 
Messagerie électroniqueXXX 
Services de fichiersXXXX
Applications techniques et ingénierie
Gestion du cycle de vie des produitsXXX 
Exploration pétrolière et gazièreXXX 
Développement de logicielsXXXX
Automatisation de la conception électroniqueXXXX
RenduXXXX

 

VIRTUALISATION DES SERVEURS ET DES BUREAUX

La virtualisation des serveurs et l'infrastructure de bureau virtuel (VDI) créent toutes deux des exigences de performances de stockage uniques que la mise en cache peut aider à respecter. Dès lors que vous avez besoin de démarrer un grand nombre d'ordinateurs virtuels en même temps, par exemple au cours du démarrage quotidien des ordinateurs de bureau ou, dans le cas de la virtualisation des serveurs, après une panne ou un redémarrage, une charge de stockage considérable est créée. Les nombreuses connexions et analyses antivirus peuvent également créer une charge d'E/S élevée.

Étudions l'exemple suivant. Une banque régionale possédait plus de 1 000 ordinateurs de bureau VMware View et connaissait des problèmes importants de performances du stockage dans son précédent environnement malgré la présence de 300 piles de disques. Lorsque cet environnement a été remplacé par une solution NetApp utilisant uniquement 56 disques et le cache Flash, les arrêts dus aux opérations de redémarrage sont passés de 4 ou 5 heures à seulement 10 minutes. Les problèmes liés à l'absence de réponse des serveurs VDI ont tout simplement disparu et les connexions, qui devaient jusqu'alors être échelonnées, peuvent désormais être effectuées en seulement quatre secondes. L'ajout de la mise en cache intelligente de NetApp a offert à cette banque de meilleures performances pour un moindre coût.

Ces résultats sont en grande partie dus à l'amplification du cache. En raison du degré élevé de duplication dans les environnements virtuels (dû au grand nombre de copies quasi identiques des mêmes systèmes d'exploitation et applications), il est possible d'avoir un taux d'amplification du cache extrêmement élevé avec les blocs de données partagés. Pour supprimer la duplication, vous avez le choix entre appliquer la déduplication NetApp à votre environnement virtuel existant ou, si vous configurez un nouvel environnement virtuel, faire appel à la fonction de provisionnement et de clonage de NetApp Virtual Storage Console v2.0 pour cloner efficacement vos ordinateurs virtuels de sorte que tous les ordinateurs virtuels possédant un système d'exploitation invité identique partagent les mêmes blocs. Dans les deux cas, une fois l'ensemble de blocs partagés lu dans le cache, l'accès en lecture est plus rapide pour tous les ordinateurs virtuels.

CLOUD COMPUTING

Étant donné que la majeure partie de l'infrastructure du cloud est ajoutée sur la virtualisation des serveurs, les environnements de cloud profiteront d'un grand nombre des avantages que propose la mise en cache intelligente. En outre, l'association de la mise en cache intelligente et de FlexShare vous permet de définir intégralement des classes de service pour les différents locataires du stockage partagé d'un environnement cloud mutualisé. Ainsi, vous pourrez plus facilement proposer l'informatique en tant que service.

BASE DE DONNÉES

La mise en cache intelligente offre également des avantages d'importance aux environnements de traitement de transactions en ligne. Un récent livre blanc NetApp a étudié deux méthodes d'amélioration des performances dans un environnement OLTP d'E/S : l'ajout de disques supplémentaires ou l'ajout du cache Flash. Les deux approches ont démontré leur efficacité dans la dynamisation du débit global du système. La configuration du cache Flash :

  • coûte environ 30 % de moins que le même système avec un disque supplémentaire ;
  • réduit la latence d'E/S moyenne de 27,5 à 16,9 millisecondes ;
  • ne consomme pas d'énergie ni d'espace de rack en plus (tandis que la configuration avec disque supplémentaire double ces deux valeurs).

MESSAGERIE ÉLECTRONIQUE

Les environnements de messagerie électronique présentant un grand nombre d'utilisateurs deviennent rapidement de grands consommateurs de données. Tout comme pour les environnements de base de données, l'ajout du cache Flash peut considérablement dynamiser les performances pour une part infime du coût représenté par l'ajout de disques supplémentaires. Par exemple, lors d'un récent banc d'essai NetApp avec Microsoft® Exchange 2010, l'ajout du cache Flash a doublé le nombre d'IOPS réussies et augmenté le nombre de boîtes aux lettres prises en charge de 67 %. Ces résultats seront décrits dans l'article TR-3865 : « Utilisation du cache Flash pour Exchange 2010 », dont la publication est prévue en septembre 2010.

EXPLORATION PÉTROLIÈRE ET GAZIÈRE

Diverses applications scientifiques et techniques tirent également un large profit du cache Flash. Par exemple, un cache intelligent volumineux peut accélérer considérablement le traitement et supprimer les goulets d'étranglement pendant l'analyse des jeux de données sismiques nécessaires à l'exploration pétrolière et gazière.

Une société d'énergie indépendante connaissant un large succès a récemment installé le logiciel Schlumberger Petrel 2009 et le stockage NetApp pour soutenir l'évaluation des emplacements potentiels de forage. (Un récent livre blanc commun décrit les avantages du stockage NetApp en association avec Petrel.)

Cette société utilise plusieurs cartes de cache Flash NetApp de 512 Go dans cinq systèmes de stockage FAS6080 non bloquants avec des lecteurs de disque SATA. Son environnement de travail sismique partagé connaît un taux de résultat de 70 %, ce qui signifie que dans 70 % des cas, les données demandées se trouvent déjà dans le cache. Des applications dont l'ouverture et le chargement prenaient alors jusqu'à 20 minutes sont désormais opérationnelles en seulement 5 minutes. Pour en savoir plus à ce sujet, consultez un témoignage de réussite client récent.

Conclusion

Le cache Flash NetApp fait office de cache de lecture facultatif de second niveau qui accélère les performances d'un large éventail d'applications courantes. Il peut réduire les coûts en abaissant le nombre de piles de disques nécessaires et/ou en vous permettant d'utiliser des disques à capacité optimisée plutôt que des disques à performances optimisées. L'utilisation de disques moins nombreux et plus volumineux en association avec le cache Flash peut faire baisser le prix d'achat d'un système de stockage et vous faire réaliser des économies à long terme sur l'espace de rack, la consommation électrique et le refroidissement. L'efficacité de la mise en cache de lecture est amplifiée lorsqu'elle est associée avec la déduplication NetApp ou les technologies FlexClone car la probabilité d'un résultat de cache augmente considérablement lorsque les blocs de données sont partagés.

Pour en savoir plus sur toutes les technologies de mise en cache intelligente de NetApp, consultez notre récent livre blanc.

 Votre avis sur le cache Flash

Posez vos questions, échangez des idées et partagez vos points de vue directement en ligne via les communautés NetApp.

Mark Woods

Mark Woods
Responsable marketing produit
NetApp

Mark bénéficie de plus de 15 ans d'expérience dans le marketing et la gestion de produits. Avant de rejoindre NetApp, Mark a travaillé pour Hewlett-Packard dans les services liés aux serveurs. Il est diplômé en ingénierie électrique de l'Université du Colorado et a obtenu un MBA à l'Université du Texas.

Amit Shah

Amit Shah
Responsable produit senior
NetApp

Amit bénéficie d'une expérience de plus de 20 ans en ingénierie et en gestion de produits. Avant de rejoindre NetApp, il a travaillé dans plusieurs grandes entreprises ainsi que dans plusieurs start-up à leurs débuts, notamment HP (Agilent), Mylex, QLogic, Rhapsody Networks, Candera Systems et Unisys. Il a obtenu une licence en ingénierie électrique de Rutgers University ainsi qu'une une maîtrise en ingénierie électrique de Farleigh Dickinson University.

Paul Updike

Paul Updike
Ingénieur marketing et technique
NetApp

Au cours de ses 18 années en informatique, Paul a travaillé dans un grand nombre d'environnements hautes performances, académiques et d'ingénierie. Depuis qu'il a rejoint NetApp il y a huit ans, il s'est concentré sur Data ONTAP et les meilleures pratiques en termes de performances des systèmes de stockage.

 
Découvrir