NetApp Tech OnTap NetApp Logo
NetApp Tech OnTap
     
FAS6200 mit Data ONTAP 8 Cluster-Mode: Performance und Skalierbarkeit

Am 1. November 2011 stellte NetApp beim SPECsfs2008 NFS Benchmark mit den Systemen der NetApp FAS6200 Serie unter Data ONTAP 8 Cluster-Mode einen neuen Rekord auf. Bei SPECsfs2008_nfs.v3 leisteten die Systeme von NetApp über 1,5 Millionen OPs/s. Dieser Performance-Zuwachs von 35 % gegenüber dem bisherigen Rekordhalter wurde mit weniger als der Hälfte an Infrastruktur erzielt.

Data ONTAP bietet nicht nur die umfassenden Funktionen, die Sie von NetApp erwarten dürfen, sondern auch Performance auf HPC-Niveau. Dies soll im folgenden Artikel näher erläutert werden. Zunächst möchten wir Ihnen einige Hintergrundinformationen zu Cluster-Mode vorstellen und dann beschreiben, wie wir bei diesem Benchmark vorgegangen sind. Sie werden sehen, dass die Ergebnisse nicht nur eine erstklassige Performance, sondern auch eine hervorragende Skalierbarkeit für wachsende Cluster belegen.

Grundlagen zu Cluster-Mode

Wie Sie vielleicht bereits wissen, vereint Data ONTAP 8 die Funktionen von Data ONTAP 7G und Data ONTAP GX in einer einzigen Code-Basis mit zwei verschiedenen Betriebsmodi: 7-Mode liefert Funkionen, die denen von Data ONTAP 7.3.x entsprechen, und Cluster-Mode unterstützt Konfigurationen mit mehreren Controllern, einem globalen Namespace und geclustertem Filesystem. Data ONTAP 8 ermöglicht damit die vertikale oder horizontale Skalierung von Storage-Kapazität und Performance je nach den Anforderungen Ihres Unternehmens.

Die Grundbausteine im Cluster-Mode sind die standardmäßigen FAS oder V-Series HA-Paare, mit denen Sie bereits vertraut sind. In einer solchen Aktiv/Aktiv-Konfiguration ist jeder Controller im normalen Betrieb für die Hälfte der Festplatten zuständig und übernimmt bei einem Ausfall den Workload des anderen Controllers. Jeder Controller in einem HA-Paar wird als Cluster Node bezeichnet. Mehrere HA-Paare sind über ein dediziertes 10GbE Cluster Interconnect (10-Gigabit-Ethernet) in einem Cluster zusammengeschlossen. Dieses dank seiner redundanten Auslegung sehr zuverlässige Interconnect wird für die Cluster-Kommunikation und die Datenverschiebung genutzt.

Die im Cluster-Mode verwendeten Bausteine müssen nicht vom gleichen Typ sein. Sie können also mit bereits vorhandenen FAS HA-Paaren einen Cluster erstellen. Sobald die Performance skaliert werden soll, fügen Sie dem Cluster einfach ein neues FAS System hinzu. Bei Bedarf lassen sich ältere Systeme zudem unterbrechungsfrei aus dem Cluster entfernen.

Weitere Informationen zu Data ONTAP 8 Cluster-Mode finden Sie in diesem kürzlich veröffentlichten technischen Bericht von NetApp.

Ein Cluster-Mode System besteht aus homogenen oder heterogenen (s. Abbildung) FAS und/oder V-Series Storage-Systemen und unterstützt alle Storage-Zugriffsprotokolle gleichzeitig.

Abbildung 1) Ein Cluster-Mode System besteht aus homogenen oder heterogenen FAS und/oder V-Series Storage-Systemen und unterstützt alle Storage-Zugriffsprotokolle gleichzeitig.

Herausragende SPECsfs Ergebnisse

Nachdem wir die Grundlagen des Cluster-Mode vorgestellt haben, möchten wir jetzt die Konfiguration beschreiben, mit der die herausragenden Ergebnisse beim SPECsfs Benchmark erzielt wurden. Sie haben sich Benchmarks vielleicht schon einmal näher angesehen. Dann wissen Sie auch, dass Rekordwerte häufig mit Systemen erzielt werden, die außerhalb des Testlabors wahrscheinlich nie zum Einsatz kommen werden. Wir wollten jedoch bei diesem Test eine Konfiguration verwenden, die durchaus auch unter realen Bedingungen in einem Datacenter konfiguriert und betrieben werden kann.

Deshalb haben wir für den Test ein Storage-System mit folgenden Komponenten verwendet:

  • 24 FAS6240 Storage Controller (12 HA-Paare)
  • jeweils mit einem 512 GB Flash Cache Modul
  • insgesamt 1.728 Festplatten (72 Festplatten pro Controller) in RAID-DP Gruppen

Wir haben uns bewusst für das FAS6240 System – die mittlere Plattform der FAS6200 Enterprise Storage-Serie – entschieden, da dieses System häufig gewählt wird. Das Highend-System FAS6280 dürfte unter denselben Testbedingungen eine noch höhere Performance liefern.

Ein einziger FAS6240 Controller unterstützt bis zu 3 TB Flash Cache. Eine 512-GB-Karte pro Cluster Node ist im Vergleich mit einer typischen Datacenter-Konfiguration also keineswegs übertrieben. Verglichen mit der großen Anzahl an Solid State-Festplatten (SSDs), die kürzlich in einigen SPECsfs Testkonfigurationen eingesetzt wurden, ist unsere Testausstattung fast bescheiden.

Auch der Einsatz von nur 72 Laufwerken pro Controller ist durchaus knapp bemessen, da ein einziger FAS6240 Controller bis zu 1.440 Laufwerke unterstützt. Bei den Festplatten handelte es sich um 450GB 15K SAS-Laufwerke. Zu beachten ist, dass für alle Tests RAID-DP, die Double Parity RAID 6 Implementierung von NetApp, aktiviert war. Dies entspricht dem Standardverfahren unserer Kunden (RAID-DP ist bei NetApp Standard), weicht aber erheblich von vielen von anderen durchgeführten SPECsfs Tests ab, bei denen zur Vermeidung von RAID Overhead mit Spiegelung gearbeitet wurde.

Ein Diagramm der SPECsfs2008 Ergebnisse sehen Sie in Abbildung 2. Der maximale Durchsatz am Endpunkt lag bei 1.512.784 OPs/s. für SPECsfs2008_nfs.v3 mit einer Gesamtantwortzeit oder durchschnittlichen Latenz von 1,53 Millisekunden (gepunktete Linie). Alle NetApp Ergebnisse für SPECsfs2008 finden Sie auf der SPEC Website. Wenn Sie mit SPECsfs vertraut sind, sehen Sie, dass das Clusterprofil dem eines Standalone Storage-Systems sehr ähnlich ist. Bei niedrigem Durchsatz ist die Reaktionszeit (die Zeit zur Abarbeitung einer Anfrage) kürzer, bei steigendem Durchsatz steigt die Reaktionszeit langsam an.

NetApp Lösungen zeichnen sich schon immer durch kurze Reaktionszeiten aus. Das Testergebnis belegt dies erneut, obwohl wir keinen Versuch unternommen haben, den Datenzugriff zu optimieren. Dies war möglicherweise sogar der größte Schwachpunkt unserer Testumgebung, denn die Testclients forderten die Daten von jedem beliebigen Cluster Node an, unabhängig vom tatsächlichen Speicherort der Daten. Im Durchschnitt bezogen sich deshalb 23 von 24 der von einem beliebigen Node erhaltenen Anfragen auf Daten eines anderen Node. In der Praxis bedeutet dies, dass latenzempfindliche Workloads wie Microsoft Exchange, Datenbankapplikationen und Virtual Machines auf einem NetApp Cluster effizient ausgeführt werden sollten.

Das SPECsfs Ergebnis für Data ONTAP 8.1 Cluster-Mode zeigt den Durchsatz in OPs/s gemäß SPECsfs im Vergleich zur Client-Reaktionszeit. Der maximale Durchsatz lag bei 1.512.784 OPs/s. Die gestrichelte Linie zeigt eine Gesamtantwortzeit von 1,53 ms.

Abbildung 2) Das SPECsfs Ergebnis für Data ONTAP 8.1 Cluster-Mode zeigt den Durchsatz in OPs/s gemäß SPECsfs im Vergleich zur Client-Reaktionszeit. Der maximale Durchsatz lag bei 1.512.784 OPs/s. Die gestrichelte Linie zeigt eine Gesamtantwortzeit von 1,53 ms.

Lineare Skalierbarkeit

Die meisten von Ihnen dürften zurzeit kaum einen Storage Cluster benötigen, der 1,5 Millionen OPs/s nach SPECsfs schafft. Was Sie vielleicht aber sehr wohl brauchen, ist mehr Performance, als ein einzelnes Storage-System bieten kann. Angesicht des aktuellen Trends in Richtung umfassender Virtualisierung, Cloud Computing und Big Data wächst Ihr Performance-Bedarf wahrscheinlich schneller als ursprünglich geplant. Genau deshalb wollten wir auch testen, wie gut sich ein NetApp Cluster skalieren lässt.

Zusätzlich zu dem oben erläuterten SPECsfs2008 Ergebnis auf einem 24-Node-System haben wir fünf weitere Zwischenergebnisse für Cluster aus FAS6240 Systemen getestet, und zwar mit 4, 8, 12, 16 und 20 Nodes. In allen Fällen war die Node-Konfiguration identisch mit der des 24-Node-Systems, mit dem das oben beschriebene Ergebnis erzielt wurde: 512 MB Flash Cache pro Controller Node und 72 Festplatten pro Controller Node.

Wie aus Abbildung 3 hervorgeht, verläuft die Performance-Skalierung beim Hinzufügen von Nodes äußerst linear und die Gesamtantwortzeit bleibt für alle getesteten Konfigurationen stabil.

Auswirkung der Cluster-Größe auf SPECsfs2008 Durchsatz und Gesamtantwortzeit

Abbildung 3) Auswirkung der Cluster-Größe auf SPECsfs2008 Durchsatz und Gesamtantwortzeit

Sie dürfen daher bei der Erweiterung eines Clusters eine hervorragende Skalierbarkeit erwarten, und zwar mit vorhersehbaren Performance-Verbesserungen und ohne eine inakzeptable Verschlechterung der Reaktionszeit, die sich negativ auf latenzempfindliche Applikationen auswirken würde.

Schlussfolgerung

Die kürzlich von NetApp erzielten Ergebnisse beim SPECsfs2008 NFS Benchmark belegen führende Performance und lineare Skalierbarkeit. FAS6200 Systeme mit Data ONTAP 8 Cluster-Mode ermöglichen eine Storage Performance auf HPC-Niveau. Zusätzlich zu hoher Performance und niedriger Latenz bietet Cluster-Mode das vollständige Storage-Effizienz- und Datensicherungsportfolio von NetApp, unterbrechungsfreien Betrieb, Integration in ein breitgefächertes Angebot an Partnersystemen sowie umfassende Unterstützung für sichere Mandantenfähigkeit und Cloud-Umgebungen.

Ob auf FAS oder V-Series Systemen – Data ONTAP 8 Cluster-Mode schafft mit Always-on-Verfügbarkeit für unterbrechungsfreien Betrieb, enormer Flexibilität für die Reaktion auf neue Marktbedingungen und betrieblicher Effizienz die Voraussetzungen für das Wachstum Ihres Unternehmens.

 Ihre Meinung zur FAS6200?

Stellen Sie Fragen, tauschen Sie Ideen aus und diskutieren Sie – in der NetApp Community!

Chris Lemmons
Senior Manager
Workload Engineering


In seinen 28 Jahren Erfahrung in der IT-Branche machte Chris Lemmons schon bald die Untersuchung der Performance von Computern und Storage-Systemen zu seinem Haupttätigkeitsgebiet. Bevor Chris vor 7 Jahren zu NetApp kam, war er bei Data General, Ziff-Davis und Veritest tätig. Bei NetApp befasst sich Chris fast ausschließlich mit Storage Performance. Sein besonderes Interesse gilt dabei Enterprise-Applikationsumgebungen wie Oracle, Exchange und VMware.



Bhavik Desai
Performance Engineer
NetApp


Bhavik Desai schloss sein Studium an der Clemson University mit einem Master of Science in Informatik ab und kam danach direkt zu NetApp. In seiner 3-jährigen Tätigkeit bei NetApp befasste er sich in erster Linie mit der Performance verschiedenster Technologien mit NetApp Storage, einschließlich Exchange, VMware und Hyper-V. Zuletzt beschäftigte er sich vorrangig mit Industriestandards wie SPECsfs2008 und SPC-1.


Tech OnTap
Melden Sie sich jetzt an.
Tech OnTap liefert jeden Monat Einblicke in die IT-Welt sowie exklusive Best Practices, Tipps und Tools, Interviews mit Entwicklern, Demos, Testberichte und vieles mehr.

Besuchen Sie Tech OnTap in der NetApp Community, um sich noch heute anzumelden.

Weitere Infos
Weitere Infos
NetApp und der Mitbewerb

Zwei weitere Unternehmen haben kürzlich beim SPECsfs2008 NFS Benchmark über 1 Millionen Operationen pro Sekunde erzielt. Ein Unternehmen setzte eine HPC-orientierte Lösung ein, das zweite schaltete eine Cache Applikation vor eine Drittanbieter-Storage-Lösung. Wir sind jedoch der Überzeugung, dass nur NetApp dank einer einzigartigen Kombination aus Unified Storage, Performance auf HPC-Niveau, Skalierbarkeit, Storage-Effizienz und integrierter Datensicherung den Anforderungen von Enterprise-Umgebungen voll gerecht werden kann.

Im technischen Bericht NetApp TR-3990 finden Sie einen detaillierten Vergleich des Ergebnisses von NetApp und eines anderen kürzlich veröffentlichten Ergebnis. In einem neuen Blog-Beitrag erläutert Dimitris Krekoukias von NetApp die SPECsfs Ergebnisse in allen Einzelheiten.


Meinungen

Informieren Sie sich darüber, was NetApp Mitarbeiter und andere Fachleute über die von NetApp veröffentlichten Performance-Daten zu sagen haben:

Weitere Infos
 
TRUSTe
Kontakt   |   Bezugsquelle   |   Feedback   |   Karriere  |   Abonnements   |   Datenschutzrichtlinie   |   © 2012 NetApp.