NetApp Tech OnTap NetApp Logo
NetApp Tech OnTap
     
Automatisiertes Storage Tiering
und die virtuelle Storage-Ebene von NetApp

Technologien zum automatisierten Storage Tiering (Automated Storage Tiering, AST) dienen primär zur Unterstützung der Datacenter, damit diese die Vorteile der besseren Performance von Flash-basierten Medien optimal ausschöpfen und gleichzeitig die Komplexität und die Kosten gesenkt werden. Flash-basierte Geräte, wie beispielsweise Controller-basierter SSD Flash (Solid-State Disk), können 25- bis 100-mal so viele Random-Read-Operationen pro Sekunde abschließen wie die schnellsten Festplattenlaufwerke (HDDs), doch diese Performance verursacht das 15- bis 20fache an Kosten je Gigabyte. Während sich die Kapazität von HDDs zwar beständig verbessert, lässt sich bei der Performance in Sachen IOPS je Dollar eine relative Stagnation feststellen. Flash bietet viel mehr IOPS je Dollar – und eine niedrigere Latenz.

Die FAS6200 Serie

Abbildung 1) Vergleich der Random-Read-Effizienz verschiedener Arten von Solid State und rotierenden Medien auf einer logarithmischen Skala. Zu beachten ist, dass es in Bezug auf die IOPS je Dollar kaum Unterschiede zwischen den verschiedenen HDD-Typen gibt.

Beim automatisierten Storage Tiering werden nun vollständige Datensätze nicht mehr dauerhaft auf teuren Medien hinterlegt, sondern es wird versucht, wichtige, oft abgerufene Daten („hot data“) zu identifizieren und auf Storage mit höherer Performance zu speichern, wohingegen seltener genutzte Daten („cold data“) auf langsameren, preisgünstigeren Medien abgelegt werden.

NetApp hat mit viel Aufwand und Einsatz die Herausforderungen analysiert, die es durch AST zu überwinden gilt, um eine optimale Architektur hierfür zu entwerfen.

Dieser Artikel enthält:

  • die Kriterien zur Bewertung von AST-Technologien
  • einen Vergleich der migrations- und der Caching-basierten AST-Ansätze
  • eine Einführung in die Ebene des NetApp Virtual Storage (ein Caching-basiertes AST-Konzept)

Bewertung von AST-Technologien

Aus I/O-Sicht besteht das primäre Ziel von AST darin, so viel Random I/O wie möglich auf leistungsstarke Medien (Flash) zu verschieben, um HDDs die Last dieser Random I/O abzunehmen und die durchschnittliche Latenz zu verringern. Die Unterscheidung zwischen wahlfreier und sequenzieller I/O spielt dabei eine wichtige Rolle, denn Flash bietet gegenüber HDDs bei sequenziellen Lese- und Schreibzugriffen nur einen relativ kleinen Preis-/Performance-Vorteil (weil HDDs bei sequenzieller I/O gute Ergebnisse erzielen).

Die FAS6200 Serie

Abbildung 2) Vergleich der sequenziellen Durchsatzeffizienz für verschiedene Arten von Solid State und rotierenden Medien.

Mehrere Faktoren haben Einfluss darauf, ob eine AST-Lösung das oben genannte Ziel erreicht:

  • Welche Granularität wird für die Datenablage genutzt? Je kleiner das zu bearbeitende Datenpaket ist, desto effizienter lassen sich die System- und HDD-Ressourcen zu seiner Speicherung zuweisen. Außerdem sinkt die Wahrscheinlichkeit dafür, dass seltener genutzte Daten mit den wichtigen Daten vermischt werden und unsinnigerweise kostspielige Medien verbrauchen.
  • Wie werden wichtige Daten identifiziert und wie schnell werden sie weitergeleitet? Je schneller wichtige Daten in den Flash-Speicher gelangen, umso unwahrscheinlicher ist es, dass relativ kurzlebige Spitzenwerte der I/O-Aktivität verpasst werden. Zudem ist weniger HDD I/O nötig und die durchschnittliche Latenz wird umso kürzer.

Von einem betrieblichen Standpunkt aus betrachtet verdienen noch einige zusätzliche Faktoren Beachtung:

Wie schwierig sind die Implementierung und das Management der Lösung? Eine AST-Lösung, die umfassende Neukonfigurationen vor ihrer Implementierung erfordert oder einen hohen Monitoring- und Management-Aufwand verursacht, ist möglicherweise kontraproduktiv.

Wie wird die Lösung mit anderen verwendeten Storage-Technologien integriert (Backup, Deduplizierung, Thin Provisioning usw.)? Natürlich sollte keine Lösung implementiert werden, bei der die Backup-Prozesse nicht mehr funktionieren oder die das Verschieben großer Datenmassen auslöst.

Vergleich von Migration und Caching für AST

Es gibt zwei grundlegende, verschiedene Ansätze für AST: die Migration und das Caching.

Beim migrationsbasierten AST wird der Datenmigrationsprozess automatisiert. Wurde ein Datenpaket als wichtig („hot“) identifiziert, so wird dieses Paket auf schnellere Medien verschoben, und zwar solange, bis die Daten keine Priorität mehr besitzen, also als „cold“ erachtet werden. Der HDD-Zugriff ist für das Verschieben auf und aus Flash erforderlich.

Beim Caching-basierten AST werden bereits bekannte Caching-Methoden eingesetzt, um wichtige Daten auf Medien mit höherer Performance zu verlagern. Dabei bleibt eine Kopie der Daten auf der HDD. Sobald die Daten also keine Priorität mehr besitzen, können sie einfach aus dem Cache entfernt werden, ohne Bedarf für zusätzliche HDD I/O.

Die FAS6200 Serie

Abbildung 3) Vergleich des automatisierten Storage Tierings basierend auf Caching und auf Migration.

Die virtuelle Storage-Ebene von NetApp

NetApp hat diese zwei AST-Ansätze im Hinblick auf die bereits diskutierten Bewertungskriterien geprüft und ist zu dem Schluss gekommen, dass ein Caching-basierter Ansatz für AST diese Kriterien besser erfüllt.

Außerdem konnte NetApp sich auf die Optimierung der Performance bei Lesezugriffen konzentrieren, da das NetApp Write Anywhere File Layout (WAFL) Schreiboperationen effektiv sequenziell behandelt. Und wie Abbildung 2 zeigt, sind HDDs darin besonders gut. Weitere Details hierzu finden sich in einem aktuellen Blog-Beitrag von Mike Riley und dem bei Tech OnTap mitwirkenden John Fullbright. (Aus diesem Grund erzielt das NetApp Dual-Parity RAID, kurz RAID-DP, auch eine gute Performance bei Schreibzugriffen, wenn andere RAID 6-Implementierungen versagen.)

Die FAS6200 Serie

Abbildung 4) Die Ebene des NetApp Virtual Storage ist ein auf Caching basierender Ansatz für automatisiertes Storage Tiering.

Die Ebene des NetApp Virtual Storage befördert wichtige Daten in den Cache, während gleichzeitig der HDD I/O Overhead auf ein Minimum reduziert wird. Immer, wenn eine Leseanfrage für einen Block auf einem Volume oder LUN eintrifft, wird dieser Block automatisch befördert. Zu beachten ist dabei, dass es sich bei dieser Beförderung des Datenblocks nicht um eine Migration handelt, denn der Block verbleibt auf der HDD, wenn er in die virtuelle Storage-Ebene kopiert wird. Die Datenbeförderung erfolgt direkt über den Systempuffer-Cache, sodass also keine zusätzliche HDD I/O nötig ist.

Da Datenblöcke sofort nach dem ersten Lesen von der Platte befördert werden, ist keine weitere Platten-I/O erforderlich. Im Vergleich dazu befördern migrationsbasierte AST-Implementierungen die wichtigen Daten typischerweise erst, wenn sie mehrmals von der Platte gelesen wurden, oder bei der nächsten geplanten Migration. Dann sind zusätzliche I/O-Zugriffe auf die Platte nötig, um die Migration zu vollziehen.

Die Algorithmen von NetApp differenzieren zwischen wichtigen („hot“) und nebensächlichen („cold“) Daten und behalten erstere in der virtuellen Storage-Ebene. Metadaten beispielsweise werden immer beim ersten Lesezugriff befördert. Im Gegensatz dazu werden sequenzielle Lesezugriffe normalerweise nicht in der virtuellen Storage-Ebene zwischengespeichert – es sei denn, dies wurde explizit aktiviert –, da sie oftmals wichtigere Daten verdrängen. Außerdem sind HDDs dazu ebenfalls in der Lage, wie bereits gezeigt wurde. Dieses Verhalten lässt sich an die Bedürfnisse von Applikationen anpassen, die sehr individuelle Datenzugriffsmuster nutzen oder andere Anforderungen an die Service Levels stellen.

Vorteile der virtuellen Storage-Ebene

Echtzeit-Beförderung von wichtigen Daten mit hoher Granularität. Ein Datenblock gelangt typischerweise auf die virtuelle Storage-Ebene, sobald er das erste Mal von der Platte gelesen wird. Der Performance-Vorteil ergibt sich in Echtzeit, da die virtuelle Storage-Ebene nachfolgende Lesezugriffe bearbeitet. Lesezugriffsmuster werden identifiziert und Datenblöcke, die höchstwahrscheinlich in Kürze erforderlich sind, werden im Voraus eingelesen. Die virtuelle Storage-Ebene wird jedoch niemals Daten komplett von einer Storage-Ebene auf eine andere verschieben. Somit werden die HDD I/O und andere Systemressourcen geschont. Die Effizienz dieses Ansatzes – kombiniert mit der Möglichkeit, auf der Granularität einzelner 4-KB-Blöcke zu arbeiten – erlaubt die Echtzeit-Beförderung wichtiger Daten.

Beim migrationsbasierten AST werden wichtige Daten von einer Storage-Ebene auf eine andere migriert, und zwar entweder im Rahmen einer Hintergrundaufgabe oder geplant während Zeiten mit weniger Auslastung (um die Extrabelastung des Storage-Systems zu minimieren). Da all diese Lösungen typischerweise mit einer Granularität arbeiten, die mindestens 128-mal höher ist als die der virtuellen Storage-Ebene (im Bereich von 0,5 MB bis zu 1 GB oder gar ein gesamtes Volume oder LUN), nimmt die Datenverschiebung unter Umständen viel Zeit in Anspruch. Derartige Ansätze können mit plötzlich auftretender hoher Aktivität nicht umgehen, wenn diese Spitzenauslastungen kürzer sind als die Zeitspanne, die zur Identifizierung und Beförderung von wichtigen Daten nötig wäre.

Die 4-KB-Granularität der virtuellen Storage-Ebene bedeutet, dass Flash-basierte Medien sehr effizient genutzt werden. Lösungen mit einer gröberen Granularität nehmen mit großer Wahrscheinlichkeit auch viele nebensächliche Daten gemeinsam mit dem wichtigen Datenblock auf und erfordern somit zumeist weitere kostspielige Flash-Ressourcen bei gleichbleibendem Ergebnis.

Intuitive Implementierung und einfaches Management. Die virtuelle Storage-Ebene arbeitet zusammen mit vorhandenen Daten-Volumes und LUNs. Es sind keine komplizierten oder störenden Änderungen Ihrer Storage-Umgebung erforderlich. Es müssen keine Richtlinien, Schwellwerte oder Zeitfenster für die Datenverschiebung festgelegt werden. Die Flash-Technologie wird einfach in Ihren Storage-Systemen installiert. Anschließend wird die virtuelle Storage-Ebene für alle durch den Storage Controller verwalteten Volumes aktiv. Bei Bedarf können Benutzerdaten für Volumes mit niedriger Priorität von der virtuellen Storage-Ebene ausgeschlossen werden.

Andere AST-Lösungen erfordern inkrementelle Richtlinien-, Datenklassifizierungs- und Strukturanpassungen für die vorhandene Storage-Infrastruktur, beispielsweise die Einrichtung dedizierter Storage-Pools und die Migration von Daten.

Vollständig integriert. Die virtuelle Storage-Ebene ist vollständig mit der NetApp Unified Storage-Architektur integriert, das heißt, sie kann ohne Änderungen mit beliebigen NAS- oder SAN Storage-Protokollen genutzt werden.

Bei migrationsbasierten AST-Lösungen kommt es unter Umständen zu Konflikten bei der Integration mit Funktionen für die Storage-Effizienz, z. B. bei der Deduplizierung. Die Ebene des NetApp Virtual Storage hingegen arbeitet ohne Schwierigkeiten mit allen Funktionen von NetApp zur Steigerung der Storage-Effizienz zusammen, einschließlich Thin Provisioning, FlexClone, Deduplizierung und Komprimierung. Diese nahtlose Integration bringt Ihnen weitere Vorteile und verbessert die Leistungsfähigkeit der virtuellen Storage-Ebene.

Wenn Sie beispielsweise ein Volume deduplizieren, bleiben die daraus resultierenden Vorteile in der virtuellen Storage-Ebene erhalten. Für einen einzelnen Block in der virtuellen Storage-Ebene könnten zahlreiche Metadaten-Pointer existieren, wodurch die Wahrscheinlichkeit steigt, dass der Block erneut gelesen wird und sich somit eine Beförderung besonders lohnen würde. Durch diese Cache-Erweiterung kann ein einzelner Block in der virtuellen Storage-Ebene quasi die Rolle mehrerer logischer Blöcke übernehmen. Dies resultiert in deutlichen Performance-Verbesserungen für virtualisierte Server- und Desktop-Umgebungen (bspw. die Verkürzung der Zeitspanne für Boot-Anstürme), während gleichzeitig weniger Flash-Medien erforderlich sind.

Schlussfolgerung

Durch unseren Caching-basierten Ansatz für AST bietet die Ebene des NetApp Virtual Storage entscheidende Vorteile gegenüber migrationsbasiertem AST. Die virtuelle Storage-Ebene kann Daten in Echtzeit befördern, wovon auch kurzlebige Phasen höchster Aktivität spürbar profitieren. Die 4-KB-Granularität bedeutet, dass wir nebensächliche Daten („cold data“) effizient aus dem Flash-Speicher ausschließen, sodass weniger Flash-Ressourcen für ein dennoch überzeugendes Ergebnis erforderlich sind. Im Vergleich dazu arbeitet der migrationsbasierte AST-Ansatz mit einer geringeren Granularität, benötigt mehr Zeit, bis Daten befördert werden, braucht mehr HDD I/O und nutzt die kostspieligen Flash-basierten Medien weniger effizient.

Im Prinzip verwendet die virtuelle Storage-Ebene die HDDs als Kapazitätsebene und die Flash-Medien als Performance-Ebene. In Ihrem Unternehmen gibt es wahrscheinlich verschiedenste Festplattenlaufwerke, z. B. FC, SATA und SAS. Jede dieser Arten kann als Kapazitätsebene dienen, während der virtuelle Storage für die nötige Performance sorgt. Wir sind überzeugt, dass die Kombination aus einer Hochleistungsebene (basierend auf der virtuellen Storage-Ebene) und einer einzelnen Plattenlaufwerksebene (basierend auf SATA-Platten) für die Mehrzahl an Applikationen künftig die optimale Lösung darstellt.

 Ihre Meinung zum automatisierten Storage Tiering?

Stellen Sie Fragen, tauschen Sie Ideen aus und teilen Sie Ihre Meinung mit der NetApp Community!

Paul Feresten
Sr. Product Marketing Manager
NetApp


Paul Feresten ist seit 2005 bei NetApp. Sein Schwerpunkt liegt auf Core Software von NetApp, wie Data ONTAP, MultiStore, FlexClone und Thin Provisioning. Er verfügt über mehr als 30 Jahre Erfahrung in den Bereichen Produktmanagement, Vertrieb, Marketing und Executive Management. Bevor Paul zu NetApp kam, war er bei Data General, Digital Equipment Corporation, MSI Consulting und SEPATON tätig.



Rajesh Sundaram
Technischer Direktor
NetApp


Seit seinem Wechsel zu NetApp im Jahr 1997 hat Rajesh Sundaram am WAFL-Filesystem, am Data ONTAP RAID-Subsystem und an der Integration von Flash-Technologie in NetApp Storage gearbeitet. Er besitzt einen Master of Science in Informatik von der University of Arizona.


Tech OnTap
Melden Sie sich jetzt an.
Tech OnTap liefert jeden Monat Einblicke in die IT-Welt sowie exklusive Best Practices, Tipps und Tools, Interviews mit Entwicklern, Demos, Testberichte und vieles mehr.

Besuchen Sie Tech OnTap in der NetApp Community, um sich noch heute anzumelden.

Weitere Infos hier
Weitere Infos hier
Mehr Informationen zu VST

Sie möchten mehr über VST erfahren? Ein gerade veröffentlichtes White Paper enthält alles, was Sie wissen müssen, einschließlich Performance-Messungen in verschiedenen Umgebungen.


Virtual Desktops und VST

Die Ebene des NetApp Virtual Storage hat großen Einfluss auf virtuelle Desktop-Umgebungen. Ein aktueller Blog-Beitrag von Vaughn Stewart beschreibt die extremen Lasten, die diese Umgebungen erzeugen können, und erklärt, wie VST die Menge an Spindeln senkt und die Anzahl der unterstützbaren Desktops in einer Storage-Umgebung erhöht, während sich gleichzeitig der Datendurchsatz insgesamt enorm verbessert.


Intelligente Cache-Speicherung

Flash Cache kann Ihre Storage-Kosten um bis zu 75 % senken, indem die für eine bestimmte Performance benötigte Anzahl von Spindeln verringert wird. Zudem ist es möglich, Hochleistungsfestplatten durch wirtschaftlichere Alternativen zu ersetzen. Erfahren Sie mehr über diese höchst innovative Technologie.

Weitere Infos hier
 
TRUSTe
Kontakt   |   Bezugsquelle   |   Feedback   |   Karriere  |   Abonnements   |   Datenschutzrichtlinie   |   © 2011 NetApp