NetApp Tech OnTap
     

Intelligente Cache-Speicherung mit NetApp Flash Cache

Mit intelligenter Cache-Speicherung kann die Storage Performance von der Anzahl der Festplatten im zugrunde liegenden Festplatten-Array unabhängig gemacht werden. Dadurch lassen sich Kosten wesentlich senken und zugleich der administrative Aufwand für die Performance-Optimierung verringern. NetApp ist ein Vorreiter in der Entwicklung von innovativen Lese- und Schreib-Cache-Speichertechnologien. Beispielsweise verwenden NetApp Storage-Systeme NVRAM als Journal für eingehende Schreibanforderungen. Dadurch kann das System Schreibanforderungen an nicht-flüchtigen Speicher weitergeben und ohne Verzögerung auf die Hosts reagieren, die die Schreibvorgänge ausführen. Dieser Ansatz unterscheidet sich sehr von denen anderer Anbieter, wo die Cache-Speicherung von Schreibvorgängen meist weit unten im Software Stack stattfindet.

Für die Lese-Cache-Speicherung verwendet NetApp einen Ansatz, der mehrere Ebenen umfasst.

  • Der Lese-Cache der ersten Ebene wird vom Systempuffer-Cache im Storage-Systemspeicher bereitgestellt. Um diese Funktion zu optimieren, bestimmen spezielle Algorithmen, welche Daten im Speicher verbleiben und welche Daten vorher abgerufen werden.
  • NetApp Flash Cache (früher PAM II) stellt optionalen Cache der zweiten Ebene bereit, der die vom Systempuffer-Cache kommenden Datenblöcke aufnimmt, um einen Pool aus Datenblöcken mit geringer Latenz zu bilden.
  • Der Lese-Cache der dritten Ebene wird von NetApp FlexCache bereitgestellt, der eine separate Cache-Ebene in Ihrer Storage-Infrastruktur bildet. Dies steigert die Lese-Leistung über die eines einzelnen Storage-Systems hinaus.

Die technischen Details dieser Cache-Speichertechnologien sowie die Umgebungen und Applikationen, in denen diese Technologien am effektivsten sind, werden in einem kürzlich veröffentlichten White Paper erläutert.

Dieser Artikel konzentriert sich auf unseren Lese-Cache der zweiten Ebene. Flash Cache kann Ihre Storage-Kosten um bis zu 75 % senken, indem die für eine bestimmte Performance benötigte Anzahl von Spindeln verringert wird. Zudem ist es möglich, Hochleistungs-Festplatten durch wirtschaftlichere Optionen zu ersetzen. Ein bedeutender Cache-Optimierungseffekt kann eintreten, wenn Sie Flash Cache in Verbindung mit NetApp Deduplizierung oder FlexClone Technologien einsetzen. Dadurch wird die Anzahl von Cache-Treffern erhöht und die durchschnittliche Latenz verringert.

512 GB Flash Cache Modul

Abbildung 1) Ein 512 GB Flash Cache Modul

 

 

Flash Cache – die Grundlagen

Das Wichtigste, das Sie über Flash Cache und über Lese-Cache-Speicherung im Allgemeinen wissen müssen, ist, dass die Latenz beim Lesen eines Speichers wesentlich geringer ist als beim Lesen einer Festplatte. Gegenüber dem Lesen einer Festplatte wird die Latenz eines Treffers im Flash Cache um das 10fache und die eines Treffers im Systempuffer-Cache und das 100fache verringert.

Einfluss des Systempuffer-Cache und des Flash Cache auf die Lese-Latenz

Abbildung 2) Einfluss des Systempuffer-Cache und des Flash Cache auf die Lese-Latenz

Im Grunde ist Flash Cache dem NetApp Performance Acceleration Module PAM I sehr ähnlich. Der wichtigste Unterschied besteht darin, dass Flash Cache Module dank der Effizienz und Dichte des Flash-Speichers eine größere Kapazität als DRAM-basierte PAM I Module der früheren Generation besitzen. Flash Cache ist entweder in 256 GB oder in 512 GB Modulen verfügbar. Je nachdem, welches NetApp Storage-Systemmodell Sie verwenden, unterstützt die Konfiguration maximal 4 TB Cache (gegenüber 80 GB bei PAM I). In der Praxis resultiert dies darin, dass eine ungleich größere Datenmenge im Cache gespeichert werden kann. Außerdem kommen die Vorteile der Cache-Speicherung bei allen Arten von Applikationen zum Tragen.

Flash Cache liefert einen hohen Grad an Interoperabilität, d. h. er harmoniert mit allen Komponenten in Ihrer Umgebung:

  • Flash Cache funktioniert in Verbindung mit jedem Storage-Protokoll.
  • Sämtlicher Controller-gebundener Storage unterliegt der Cache-Speicherung.
  • Mit FlexShare können Sie Prioritäten für die Service-Qualität setzen.
  • Flash Cash funktioniert in Verbindung mit V-Series Open Storage Controllern.

 

 

So funktioniert Flash Cache

Data ONTAP verwendet Flash Cache zum Aufbewahren von Datenblöcken, die aus dem Systempuffer-Cache kommen. Dadurch kann die Flash Cache Software nahtlos mit dem Lese-Cache der ersten Ebene kommunizieren. Wenn Daten vom Systempuffer-Cache kommen, kann der Flash Cache auf Basis der vorab vorgenommenen Priorisierung und Kategorisierung entscheiden, welche der Daten aufgenommen werden und welche nicht.

Mit Flash Cache prüft ein Storage-System zunächst, ob ein angeforderter Lesevorgang in einem seiner installierten Module gespeichert ist, bevor es einen Festplatten-Lesevorgang veranlasst. Data ONTAP verfügt über eine Gruppe von Cache Tags im Systemspeicher und kann feststellen, ob ein bestimmter Datenblock im Flash Cache enthalten ist, ohne auf die Speicherkarten zuzugreifen. Dadurch wird der Zugriff auf den Flash Cache beschleunigt und die Latenz verringert. Der Schlüssel zum Erfolg liegt in den Algorithmen, mit denen bestimmt wird, welche Daten im Cache gespeichert werden.

Standardmäßig versuchen Flash Cache Algorithmen, hochwertige, per Direktzugriff gelesene Daten von sequenziellen und/oder niederwertigen Daten zu unterscheiden, und behalten diese Daten im Cache, um ein zeitaufwändiges Lesen der Festplatte zu vermeiden. NetApp bietet die Möglichkeit, das Verhalten des Cache zu ändern, um spezielle Anforderungen zu erfüllen. Folgende drei Betriebsmodi stehen zur Auswahl:

  • Standardmodus. Im Standard- oder Normalmodus des Flash Cache werden sowohl Benutzerdaten als auch Metadaten im Cache gespeichert, ähnlich wie bei der Verfahrensweise des Systempuffer-Cache. Bei Datei-Service-Protokollen wie beispielsweise NFS und CIFS enthalten die Metadaten diejenigen Daten, die benötigt werden, um die Datei- und Verzeichnisstruktur zu erhalten. Bei SAN beinhalten die Metadaten eine kleine Anzahl von Datenblöcken, die für die Organisation der Daten in einer LUN verwendet werden. Dieser Modus ist optimal, wenn die aktive Datenmenge der Größe des Flash Cache entspricht oder kleiner ist. Er ist zudem hilfreich, wenn es Punkte gibt, über die häufig auf Daten zugegriffen wird. Außerdem lässt er zu, dass Daten im Cache behalten werden.
  • Metadatenmodus. In diesem Modus werden nur Metadaten des Storage-Systems im Cache gespeichert. In manchen Situationen werden Metadaten häufiger verwendet als bestimmte im Cache gespeicherte Datenblöcke. Die Cache-Speicherung von Metadaten kann bedeutende Performance-Vorteile bringen und ist besonders nützlich, wenn die Datenmenge sehr groß ist und aus vielen kleinen Dateien besteht, oder wenn der aktive Teil der Datenmenge sehr dynamisch ist. Die Cache-Speicherung von Metadaten kann bei Datenmengen sehr hilfreich sein, die zu groß für eine effiziente Speicherung im Cache sind (also wenn die aktive Datenmenge größer ist als die Kapazität des installierten Cache). Der Metadatenmodus hat die restriktivsten Bedingungen, nach denen Daten im Cache gespeichert werden.
  • Low-Priority-Modus. Im Low-Priority-Modus werden nicht nur normale Benutzerdaten und Metadaten, sondern auch Daten mit niedriger Priorität im Cache gespeichert, die normalerweise ausgeschlossen werden. Zu Daten mit niedriger Priorität, die in diese Kategorie fallen, zählen große Mengen von sequentiell gelesenen Daten und solche, die kürzlich geschrieben wurden. Die mit Flash Cache verfügbare zusätzliche Cache-Kapazität erlaubt das Speichern sequentiell gelesener und neu geschriebener Daten, ohne die Verfügbarkeit anderer im Cache gespeicherter Daten zu beeinträchtigen. Dieser Modus ist der am wenigsten restriktive Modus für Flash Cache.

Einfluss der Cache-Größe

Abbildung 3) Einfluss von Cache-Größe und Art der im Cache gespeicherten Daten auf den Durchsatz

Mit NetApp Predictive Cache Statistics (PCS), einer Funktion von Data ONTAP ab Version 7.3, können Sie feststellen, ob Flash Cache die Performance für Ihre Workloads verbessert, und wie viel zusätzlichen Cache Sie benötigen. Zudem können Sie mit dieser Funktion verschiedene Betriebsmodi testen, um herauszufinden, welcher Modus – der Standardmodus, der Metadatenmodus oder der Low-Priority-Modus – sich am besten für Ihre Zwecke eignet.

Ausführliche Informationen zu NetApp Flash Cache, einschließlich PCS, finden Sie im technischen Bericht
TR-3832: Flash Cache and PAM Best Practices Guide.

 

Flash Cache und Storage-Effizienz

NetApp Flash Cache verbessert die Storage-Effizienz auf zweierlei Weise:

  • Mit intelligenter Cache-Speicherung können Sie weniger bzw. günstigere Festplatten verwenden.
  • Manche NetApp Storage-Funktionen sorgen für einen Cache-Optimierungseffekt, der sich auf gemeinsam genutzte Storage-Blöcke auswirkt und den Nutzen der im Cache gespeicherten Datenblöcke erhöht.

Cache-Optimierung in einer virtuellen Infrastruktur, die den Vorteil von deduplizierten Datenblöcken im Cache belegt

Abbildung 4) Cache-Optimierung in einer virtuellen Infrastruktur, die den Vorteil von deduplizierten Datenblöcken im Cache verdeutlicht

Viele Applikationen weisen ein hohes Maß an Datenblock-Duplizierung auf. Das bedeutet, dass durch das Speichern identischer Datenblöcke Storage-Kapazität vergeudet wird. Aber nicht nur das. Durch das Speichern identischer Datenblöcke im Systempuffer-Cache und im Flash Cache wird auch Cache-Kapazität vergeudet. NetApp Deduplizierung und die NetApp FlexClone Technologie verbessern den Nutzen der Cache-Speicherung, indem die Duplizierung von Datenblöcken vermieden und die Wahrscheinlichkeit von Treffern im Cache erhöht wird. Deduplizierung erkennt und ersetzt duplizierte Datenblöcke in Ihrem Primär-Storage und erstellt Verweise auf einzelne Blöcke. Mit FlexClone verhindern Sie Duplizierung, die in der Regel durch das Kopieren von LUNs oder einzelnen Dateien verursacht wird – beispielsweise in Entwicklungs- und Testverfahren. In beiden Fällen können mehrere Verweise auf einen einzelnen Datenblock deuten. Wenn sich ein solcher Datenblock im Cache befindet, ist die Wahrscheinlichkeit, dass er erneut angefordert wird, daher sehr viel höher.

Die Cache-Optimierung ist besonders effektiv, wenn sie in Verbindung mit Server- und Desktop-Virtualisierung eingesetzt wird. In diesem Zusammenhang wird Cache-Optimierung analog zum Transparent Page Sharing (TPS) von VMware auch als Transparent Storage Cache Sharing (TSCS) bezeichnet.

Mit Flash Cache können Sie Ihre Kosten für die Anschaffung von Festplatten bedeutend senken und zudem Ihre Storage-Umgebung effizienter gestalten. Tests in einer Windows File Services Umgebung haben Folgendes gezeigt:

  • Die Kombination von Flash Cache mit Fibre Channel oder SAS-Festplatten verbessert die Performance, benötigt 75 % weniger Spindeln, senkt die Anschaffungskosten um 54 % und spart 67 % an Strom- und Raumkosten.
  • Die Kombination von Flash Cache mit SATA-Festplatten erzielt dieselbe Performance wie bei Fibre Channel oder SAS-Festplatten, erhöht die Kapazität und senkt die Kosten pro TB Storage um 57 %, die Stromkosten um 66 % und die Raumkosten um 59 %.

 

Flash Cache in der Praxis

Für viele IT-Umgebungen und Applikationen sind Flash Cache und andere intelligente NetApp Cache-Speichertechnologien sehr von Vorteil.

Tabelle 1) Eignung intelligenter Cache-Speicherung für verschiedene Umgebungen und Applikationen (Die Hyperlinks verweisen auf Referenzen für jede Umgebung/Applikation.)

Umgebung/ApplikationenSchreib-CacheLese-CacheFlash CacheFlexCache
Server/Desktop-VirtualisierungXXXX
Cloud ComputingXXXX
Remote-NiederlassungXX X
DatenbankXXX 
E-MailXXX 
File ServicesXXXX
Engineering und technische Applikationen
Product Lifecycle ManagementXXX 
Öl- und GasexplorationXXX 
Software-EntwicklungXXXX
Electronic Design AutomationXXXX
RenderingXXXX

 

SERVER- UND DESKTOP-VIRTUALISIERUNG

Sowohl die Server-Virtualisierung als auch virtuelle Desktop-Infrastrukturen (VDI) stellen hohe Anforderungen an die Storage-Performance. Cache-Speicherung trägt zur Erfüllung dieser Anforderungen bei. Immer dann, wenn eine große Anzahl an Virtual Machines gleichzeitig gebootet werden muss – beispielsweise während des täglichen Hochfahrens von Desktops oder, im Falle der Server-Virtualisierung, nach einem Ausfall oder Neustart –, kann eine enorme Storage-Last erzeugt werden. Zahlreiche Anmeldevorgänge und Virenprüfungen können zudem starken E/A-Datenverkehr verursachen.

Ein Beispiel: Eine Regionalbank mit mehr als 1.000 VMware View Desktops sah sich mit bedeutenden Storage Performance-Problemen konfrontiert, obwohl die Umgebung mit mehr als 300 Festplattenspindeln ausgestattet war. Nachdem diese Umgebung durch eine NetApp Lösung mit nur 56 Festplatten und Flash Cache ersetzt wurde, sanken die durch Reboot-Vorgänge verursachten Ausfälle von 4 bis 5 Stunden auf nur 10 Minuten. Probleme, die auf nicht verfügbare VDI-Server zurückzuführen waren, verschwanden, und Anmeldungen, die bislang zeitlich versetzt stattfinden mussten, dauern jetzt nur vier Sekunden. Die intelligente NetApp Cache-Speicherung lieferte der Bank eine höhere Performance zu niedrigeren Kosten.

Diese Ergebnisse sind größtenteils auf die Cache-Optimierung zurückzuführen. Aufgrund des hohen Duplizierungsgrads in virtuellen Umgebungen (erzeugt durch zahlreiche, beinahe identische Kopien derselben Betriebssysteme und Applikationen), ist die Cache-Optimierung bei gemeinsam genutzten Datenblöcken äußerst wirkungsvoll. Sie haben zwei Möglichkeiten, um Duplizierung zu vermeiden. In Ihrer vorhandenen virtuellen Umgebung können Sie die NetApp Deduplizierung verwenden. Falls Sie eine neue virtuelle Umgebung einrichten, stehen Ihnen die Bereitstellungs- und Klonfunktionen von NetApp Virtual Storage Console Version 2.0 zur Verfügung, um Ihre Virtual Machines effizient zu klonen. Dadurch verwendet jede Virtual Machine mit demselben Gast-Betriebssystem dieselben Datenblöcke. In beiden Fällen wir nach dem Einlesen der gemeinsam genutzten Datenblöcke in den Cache der Lesezugriff aller Virtual Machines beschleunigt.

CLOUD COMPUTING

Da die meisten Cloud-Infrastrukturen auf der Ebene der Server-Virtualisierung aufgebaut sind, lassen sich viele Vorteile der intelligenten Cache-Speicherung auch für Cloud-Umgebungen nutzen. Intelligente Cache-Speicherung, die mit FlexShare kombiniert ist, ermöglicht Ihnen darüber hinaus, Service-Kategorien für mehrere Nutzer zu definieren, die in einer mandantenfähigen Cloud-Umgebung auf gemeinsam genutzten Storage zugreifen. Damit werden Ihre Möglichkeiten zur Bereitstellung von IT als Service wesentlich verbessert.

DATENBANK

Intelligente Cache-Speicherung bietet bedeutende Vorteile für Umgebungen, in denen Online-Transaktionen abgewickelt werden. In einem kürzlich veröffentlichten NetApp White Paper werden zwei Methoden zur Performance-Verbesserung in einer E/A-gebundenen OLTP-Umgebung untersucht: das Hinzufügen weiterer Festplatten und das Hinzufügen von Flash Cache. Bei beiden Ansätzen konnte der Gesamtdurchsatz des Systems gesteigert werden. Die Flash Cache Konfiguration schnitt jedoch in folgenden Punkten besser ab:

  • Sie kostet etwa 30 % weniger als dasselbe System mit zusätzlichen Festplatten.
  • Sie senkt die durchschnittliche E/A-Latenz von 27,5 Millisekunden auf 16,9 Millisekunden.
  • Sie benötigt keinen zusätzlichen Strom oder Rack-Platz. (Bei einer die Konfiguration mit zusätzlichen Festplatten wird beides mehr als verdoppelt.)

E-MAIL

Bei E-Mail-Umgebungen mit vielen Benutzern kommt es schnell zu äußerst intensivem Datenverkehr. Wie bei Datenbankumgebungen kann zusätzlicher Flash Cache die Performance hier bedeutend erhöhen. Die Kosten dafür betragen nur einen Bruchteil der Kosten, die für das Hinzufügen weiterer Festplatten anfallen. Beispielsweise wurde in einem vor kurzem durchgeführten Leistungsvergleich zwischen NetApp und Microsoft Exchange 2010 festgestellt, dass durch Flash Cache die Anzahl von IOPs verdoppelt und die Anzahl von unterstützten Mailboxen um 67 % erhöht wurde. Diese Ergebnisse werden im technischen Bericht TR-3865 ("Using Flash Cache for Exchange 2010") genauer ausgeführt, dessen Veröffentlichung im September 2010 geplant ist.

ÖL- UND GASEXPLORATION

Zahlreiche wissenschaftliche und technische Applikationen nutzen ebenfalls die Vorteile von Flash Cache. Ein großer intelligenter Cache kann beispielsweise die Datenverarbeitung stark beschleunigen und Engpässe bei der Analyse seismischer Daten verhindern, die für die Öl- und Gasexploration benötigt werden.

Ein erfolgreicher unabhängiger Energieversorger hat vor kurzem Schlumberger Petrel 2009 Software und NetApp Storage installiert, um potentielle Bohrstandorte zu bestimmen und zu analysieren. (Ein kürzlich veröffentlichtes gemeinsames White Paper beschreibt die Vorteile von NetApp Storage in Verbindung mit Petrel.)

Das Unternehmen verwendet mehrere 512 GB NetApp Flash Cache Speicherkarten in fünf nicht blockierenden FAS6080 Storage-Systemen mit SATA-Festplatten. Die zur Verarbeitung seismischer Daten gemeinsam genutzte Arbeitsumgebung hat eine Trefferquote von 70 %. Das bedeutet, dass sich in 70 % aller Fälle die angeforderten Daten bereits im Cache befinden. Applikationen, die bisher 20 Minuten brauchten, um geöffnet und geladen zu werden, benötigen jetzt für diese Vorgänge nur noch 5 Minuten. Weitere Informationen hierzu finden Sie in einer kürzlich veröffentlichten Kundenreferenz.

Schlussfolgerung

NetApp Flash Cache dient als optionaler Lese-Cache der zweiten Ebene, der die Performance einer Vielzahl von gängigen Applikationen beschleunigt und Kosten senkt. Er verringert der Anzahl der benötigten Festplattenspindeln und/oder ermöglicht Ihnen, kapazitätsoptimierte Festplatten anstelle von leistungsoptimierten Festplatten zu verwenden. Weniger und größere Festplatten mit Flash Cache machen ein Storage-System erschwinglicher. Außerdem kann permanent an Rack-Platz, Strom und Kühlung gespart werden. Die Effizienz des Lese-Cache wird erhöht, wenn dieser in Verbindung mit NetApp Deduplizierung oder FlexClone Technologien eingesetzt wird, da die Wahrscheinlichkeit eines Treffers im Cache bedeutend zunimmt, wenn Datenblöcke gemeinsam genutzt werden.

Weitere Informationen zu allen intelligenten NetApp Cache-Speichertechnologien finden Sie in unserem kürzlich veröffentlichten White Paper.

 Was halten Sie von Flash Cache?

Die NetApp Community ist offen für Ihre Fragen, Ideen und Anregungen!

Mark Woods

Mark Woods
Product Marketing Manager
NetApp

Mark Woods verfügt über 15 Jahre Erfahrung in den Bereichen Produkt-management und Marketing. Zuvor war er im Servergeschäft bei Hewlett-Packard tätig. Woods erwarb einen Bachelor of Science in Elektrotechnik an der University of Colorado sowie einen MBA an der University of Texas.

Amit Shah

Amit Shah
Senior Product Manager
NetApp

Amit Shah hat über 20 Jahre Erfahrung in den Bereichen Ingenieurwesen und Produktmanagement. Vor seiner Anstellung bei NetApp war er bei verschiedenen etablierten sowie neu gegründeten Unternehmen beschäftigt, u. a. HP (Agilent), Mylex, QLogic, Rhapsody Networks, Candera Systems und Unisys. Er erwarb seinen Bachelor of Science in Elektrotechnik an der Rutgers University und seinen Master of Science in Elektrotechnik an der Farleigh Dickinson University.

Paul Updike

Paul Updike
Technical Marketing Engineer
NetApp

Im Laufe seiner 18-jährigen Tätigkeit im IT-Bereich war Paul Updike in zahlreichen hochleistungsorientierten akademischen und technischen Arbeitsumfeldern tätig. Seit er vor acht Jahren zu NetApp kam, befasst er sich schwerpunktmäßig mit Data ONTAP und Best Practices für Storage-Systeme.

Weitere Infos hier