NetApp Tech OnTap NetApp Logo
NetApp Tech OnTap
     
Neuerungen bei Clustered Data ONTAP 8.2
Julian Cates
Technical Marketing Engineer

In den vergangenen anderthalb Jahren widmeten sich zahlreiche Artikel im Tech OnTap Newsletter dem Betriebssystem Clustered Data ONTAP. Mit den Technologien von Clustered Data ONTAP können Sie die Agilität Ihrer IT verbessern und Ihr Datacenter mithilfe einer flexiblen SDS-Infrastruktur (softwaredefinierter Storage) mit virtualisierten Storage-Services, Self-Service für Applikationen und der Integration von Hardware unterschiedlicher Anbieter optimal auf zukünftige Anforderungen vorbereiten. Weitere Informationen zu SDS bietet in diesem Monat der Artikel von Vaughn Stewart.

Jede neue Version von Clustered Data ONTAP verbessert die vorhandene Funktionalität und ergänzt neue Optionen. Dabei stehen folgende Ziele im Vordergrund:

  • Unterbrechungsfreier Betrieb, um geplante Ausfallzeiten zu eliminieren
  • Maximale Effizienz, um mit weniger Storage-Ressourcen mehr zu erreichen und Zeit beim Management der Hardware zu sparen
  • Nahtlose Skalierbarkeit, um ein anfänglich kleines System Schritt für Schritt auszubauen und auch bei technischen Erneuerungen die kontinuierliche Datenverfügbarkeit zu gewährleisten

In diesem Artikel stelle ich zunächst die neuen Funktionen von Clustered Data ONTAP 8.2 vor. Danach erläutere ich einige der wichtigsten Funktionen im Detail:

  • Servicequalität (QoS)
  • Durchführung von Controller-Upgrades ohne Datenmigration
  • Neue Funktionen für Microsoft Windows

Neue Funktionen

Clustered Data ONTAP 8.2 bietet eine Vielzahl an Verbesserungen und neuen Funktionen. Tabelle 1 bietet einen Überblick über wichtige neue Funktionen.

Tabelle 1) Neue Funktionen von Clustered Data ONTAP 8.2.

Funktion Vorteil
Unterbrechungsfreie Betriebsabläufe und Datensicherung
Durchführung von Online-Controller-Upgrades ohne Datenmigration Upgrades von Storage-Controllern werden online durchgeführt, ohne Daten migrieren zu müssen. (Details hierzu in den nachfolgenden Abschnitten.)
Speichereffizientes D2D-Backup auf Volume-Ebene mit SnapVault Bei Backups auf sekundärem oder Remote-Storage bleibt die Deduplizierung erhalten, sodass weniger Netzwerkbandbreite und Storage-Ressourcen erforderlich sind.
Effizienz und Management
Servicequalität (QoS) Legen Sie fest, wie viele Ressourcen eine Storage Virtual Machine (SVM, bisher als Vserver bezeichnet), ein Volume, eine Datei oder eine LUN maximal nutzen darf. (Details hierzu in den nachfolgenden Abschnitten.)
Skalierbarkeit
Größere SAN-Cluster SAN- bzw. gemischte SAN/NAS-Cluster unterstützen nun bis zu acht Nodes.
Single-Node und 2-Node Cluster ohne Switch Beginnen Sie mit einer kleinen Infrastruktur, die Sie dann kosteneffektiv auf bis zu acht Nodes und 23 PB (SAN) bzw. 24 Nodes und 69 PB (NAS) skalieren können.
Verbesserungen bei Infinite Volume Mit Infinite Volume können Sie über mehrere Controller hinweg ein einzelnes großes Volume erzeugen. Ab Version 8.2 lassen sich nun mehrere Infinite Volumes in einem einzigen Cluster erzeugen und gleichzeitig NFS- und CIFS-Protokolle verwenden.
FlexCache Software in Clustern Mit FlexCache können Sie eine Caching-Architektur innerhalb Ihres Storage-Clusters errichten, um so die Arbeitsweise paralleler Software-Builds, die Darstellung von Animationen, EDA-Abläufe, seismische Analysen und Finanzmarktsimulationen via NFS zu beschleunigen.
Höhere Obergrenzen Viele Obergrenzen von Clustered Data ONTAP wurden in Version 8.2 deutlich erhöht, um die Skalierbarkeit der Plattform weiter zu verbessern. Das System unterstützt nun:
  • Bis zu 100.000 NFS-Clients
  • Aggregate mit einer Größe von bis zu 400 TB
  • 12.000 Volumes in einem 24-Node-NAS-Cluster
  • 49.000 LUNs in einem 8-Node-SAN-Cluster
Verbesserungen unter Windows (Details in den nachfolgenden Abschnitten)
SMB 3.0 Neben weiteren Funktionen wurde auch der unterbrechungsfreie Betrieb mit Hyper-V verbessert.
ODX Datenübertragungen werden von Hosts an NetApp Storage übergeben.
Auto Location Dank dieser einzigartigen Funktion von NetApp verfügen Clients stets über einen möglichst direkten Pfad zum Storage.
BranchCache v2 Windows Clients können Daten lokal zwischenspeichern, um so die Performance zu verbessern, speziell bei WAN-Verbindungen.
Prüfung von Dateizugriffen Das System erfüllt Anforderungen hinsichtlich Monitoring, Dokumentation, Compliance und Recovery.
Sonstiges
IPv6 Das System unterstützt Protokolle und SNMP.

Verbessertes Workload-Management durch Servicequalität

Clustered Data ONTAP verwendet Storage Virtual Machines (SVMs, bisher als Vserver bezeichnet), um den Datenzugriff von physischen Storage-Geräten zu entkoppeln. Ein NetApp Storage-Cluster kann in individuelle SVMs mit jeweils eigenen Zugriffsrechten und Berechtigungen zerlegt werden. Mithilfe dieser SVMs lassen sich einzelne Mandanten – zum Beispiel in Service-Provider-Umgebungen – sowie Applikationen, Arbeitsgruppen, Geschäftseinheiten usw. sicher trennen. Da eine SVM nicht an bestimmte physische Ressourcen gebunden ist, lassen sich ihre Ressourcen unterbrechungsfrei modifizieren.

Alle Applikationen oder Mandanten verfügen im Normalfall über eine eigene SVM, die durch den jeweiligen Applikationsinhaber oder Mandanten verwaltet werden kann. (Umgebungen mit nur einem Mandanten können bei Bedarf in einer einzelnen SVM betrieben werden.) Mithilfe applikationsgetriebener Storage-Services, die über unsere OnCommand Plug-ins und APIs verfügbar sind, können Applikationsinhaber Daten automatisch mit den ihnen bereits vertrauten Managementtools bereitstellen, sichern und verwalten.

Workload-Management in Clustered Data ONTAP 8.2

Wenn ein Storage-System oder ein Storage-Cluster eine große Anzahl an Workloads bewältigen muss, besteht die Gefahr, dass einer der Workloads durch übermäßige Aktivität die anderen Workloads beeinträchtigt. Dies gilt insbesondere in Umgebungen mit mehreren Mandanten, wie sie beispielsweise Service-Provider anbieten. Im Normalfall wissen die Anbieter nicht, was ihre Kunden mit dem jeweils bereitgestellten Storage vorhaben. Aus diesem Grund haben wir Data ONTAP 8.2 um Servicequalität (QoS) ergänzt. Die Funktion ist Bestandteil des Basisbetriebssystems, sodass keine separate Lizenzierung erforderlich ist.

Bei QoS-basiertem Workload-Management definieren Sie Servicelevel, indem Sie anhand von Richtlinien festlegen, wie viele Ressourcen von Storage-Objekten wie Volumes, LUNs und Dateien (einschließlich VMDKs) oder SVMs konsumiert werden dürfen. So behalten Sie die Kontrolle bei hohen Performance-Anforderungen und steigern die Zufriedenheit Ihrer Kunden. Die Obergrenzen werden in MB/s oder in IOPS (I/O-Operationen pro Sekunde) definiert. Ersteres eignet sich am besten für Workloads mit großen I/O-Blöcken, Letzteres hingegen eher für transaktionsorientierte Workloads.

Dank QoS können Sie viele Workloads oder Mandanten auf einem Cluster konsolidieren, ohne dass wichtige Workloads beeinträchtigt werden oder sich die Aktivitäten eines Mandanten negativ auf einen anderen auswirken.

Verwendung von QoS

Auf dem EF540 wird die SANtricity Software ausgeführt, eine bewährte Unternehmenslösung, mit der Sie Ihre Systeme ganz einfach für die maximale Performance und Auslastung anpassen. Dual-Aktiv-Controller mit vollständig redundanten, bei laufendem Betrieb austauschbaren Komponenten sichern die Verfügbarkeit. Vollständig redundante I/O-Pfade und automatisierte Failover-Prozesse gehören zum Standardrepertoire des EF540 – bei anderen Flash-Arrays ist dies überraschenderweise nicht immer der Fall.

Die besten Ergebnisse erzielen Sie mit QoS, wenn Sie gewisse Best Practices beachten.

QoS arbeitet gegenwärtig mit Clustern mit bis zu acht Nodes. Sie können Obergrenzen für verschiedene Arten von Storage-Objekten im selben Cluster festlegen, die Obergrenzen für Objekte jedoch nicht verschachteln. Das heißt, wenn Sie beispielsweise eine Obergrenze für ein Volume definieren, können Sie nicht gleichzeitig auch Obergrenzen für LUNs oder Dateien in diesem Volume festlegen. Gleiches gilt, wenn Sie eine Obergrenze für eine SVM definieren – weitere Obergrenzen für Storage-Objekte in dieser SVM sind dann nicht mehr zulässig. Jedes Objekt in der SVM wird automatisch von der Richtlinie für die SVM erfasst.

QoS wird angewandt, indem Richtliniengruppen erzeugt und Obergrenzen für jede dieser Gruppen definiert werden. Eine Richtliniengruppe umfasst beispielsweise eine einzelne SVM, mehrere SVMs oder eine Sammlung mit Volumes, die von einer Applikation verwendet werden. In virtuellen Umgebungen kann eine Richtliniengruppe eine oder mehrere VMDK-Dateien oder LUNs mit Datenspeichern enthalten. Die auf eine Richtliniengruppe angewandte Obergrenze ist eine kombinierte Obergrenze für alle in der Gruppe enthaltenen Objekte. Der Scheduler kontrolliert aktiv alle Aufgaben, sodass Ressourcen gerecht auf alle Objekte in einer Gruppe verteilt werden.

Zu beachten ist, dass die Objekte sich nicht auf demselben Cluster-Node befinden müssen. Und auch beim Verschieben eines Objekts bleibt die Richtlinienobergrenze weiter gültig. Sie können Obergrenzen für Richtliniengruppen in Form von MB/s oder IOPS definieren, aber nicht beides gleichzeitig.

Wenn eine Richtliniengruppe ihr festgelegtes Durchsatzlimit erreicht, findet auf Protokollebene eine Drosselung statt. Zusätzlicher I/O wird in eine Warteschlange umgeleitet und beeinträchtigt somit nicht die anderen Cluster-Ressourcen. Aus Sicht der Applikation oder des Endanwenders zeigt das System beim Erreichen der Obergrenze ein ähnliches Verhalten wie physische Storage-Systeme beim Erreichen ihrer maximalen Performance.

Eine Richtliniengruppe umfasst eine Sammlung aus Storage-Objekten wie SVMs, Volumes, LUNs oder Dateien. Die Obergrenze für eine Richtliniengruppe gilt kollektiv für alle Objekte in der jeweiligen Gruppe.

Abbildung 1) Eine Richtliniengruppe umfasst eine Sammlung aus Storage-Objekten wie SVMs, Volumes, LUNs oder Dateien. Die Obergrenze für eine Richtliniengruppe gilt kollektiv für alle Objekte in der jeweiligen Gruppe.

Der Cluster-Administrator übernimmt das QoS-Management. Diese Aufgabe kann nicht an einen Mandanten oder Applikationsinhaber, der eine SVM verwaltet, übertragen werden.

Controller-Upgrades ohne Datenmigration

Früher oder später müssen Sie Ihre Storage-Controller auf neuere Hardware aufrüsten. Bei älteren Versionen von Clustered Data ONTAP konnten Sie hierzu aktive Daten unterbrechungsfrei von einem HA-Paar verschieben, die entsprechenden Controller aktualisieren und die Daten dann zurück auf das HA-Paar verschieben. Dieses Verschieben von Daten oder Volumes hat sich inzwischen als ausgesprochen hilfreich für Upgrades und diverse andere Wartungs- und Managementaufgaben erwiesen.

Clustered Data ONTAP 8.2 vereinfacht und beschleunigt den Upgrade-Prozess weiter, da Sie Controller-Upgrades nun mithilfe eines neuen Prozesses zur Aggregatverschiebung (Aggregate Relocate, ARL) komplett ohne Datenmigrationen bewältigen. Weil alle Cluster-Nodes in Clustered Data ONTAP Bestandteil eines HA-Paars sind (mit Ausnahme von Clustern mit nur einem Node), können mit der Aggregatverschiebung aktive Aggregate ganz einfach von einem Controller in einem HA-Paar an den anderen übergeben werden. So lassen sich Upgrades ohne Datenverschiebungen realisieren.

Es geht deutlich schneller, Controller-Upgrades mit ARL durchzuführen, als Daten zu anderen Controllern zu migrieren, die vorhandenen Controller zu aktualisieren und dann die Daten zurückzumigrieren.

Funktionsweise von ARL

Der ARL-Prozess besteht aus mehreren Phasen.

  • Validierungsphase: In dieser Phase werden der Zustand der Quell- und Ziel-Nodes sowie die zu verschiebenden Aggregate überprüft.
  • Vorbereitungsphase: In dieser Phase werden alle vor der Verschiebung notwendigen Verarbeitungsschritte durchgeführt. Hierzu zählen das Vorbereiten der zu verschiebenden Aggregate, das Setzen von Markierungen und das Übertragen bestimmter nicht geschäftskritischer Subsystemdaten. Die Verarbeitungsschritte, die in dieser Phase stattfinden, können bei Bedarf ganz einfach umgekehrt oder bereinigt werden.
  • Verschiebungsphase: In dieser Phase schließlich werden die nötigen Verarbeitungsschritte im Zusammenhang mit dem Verschieben des Aggregats an den Ziel-Node durchgeführt. Sobald die Verschiebungsphase initiiert wurde, kann der ARL-Vorgang nicht mehr abgebrochen werden. Die in dieser Phase stattfindende Verarbeitung wird innerhalb eines für den Client bzw. die Hostapplikation zumutbaren Zeitrahmens erledigt. Das Aggregat ist nur für einen kurzen Moment offline, wenn die Kontrolle vom Quell- an den Ziel-Node übergeben wird. Dies dauert maximal 60 Sekunden, meist sogar weniger. In der Regel ist mit 30 Sekunden zu rechnen.

Der ARL-Vorgang kann abgebrochen werden, falls die Überprüfungen während der Validierungs- oder Vorbereitungsphase aus irgendeinem Grund kein zufriedenstellendes Ergebnis liefern. Mehrere Bereinigungsprozesse machen in diesem Fall alle bisherigen Aktivitäten rückgängig.

Die nachfolgende Übersicht enthält die nötigen Schritte für ein Controller-Upgrade. Zu beachten ist, dass logische Schnittstellen (LIFs) "virtualisierte" Netzwerkschnittstellen sind, mit deren Hilfe NAS-Clients oder SAN-Hosts auf Netzwerk-Storage zugreifen.

  1. Migrieren Sie mittels ARL die Aggregate von Node A auf Node B.
  2. Migrieren Sie die Daten-LIFs (logische Schnittstellen) von Node A auf Node B.
  3. Deaktivieren Sie Storage-Failover (SFO) für das HA-Paar.
  4. Verschieben Sie Epsilon (erhält ein Quorum aus Nodes innerhalb eines Clusters aufrecht) auf Node B (bei 2-Node-Cluster).
  5. Ersetzen Sie Node A durch Node C (neuer Controller) und führen Sie alle erforderlichen Schritte zur Einrichtung, Festplattenzuweisung und Lizenzierungsverwaltung für Node C aus.
  6. Verschieben Sie mittels ARL die Aggregate von Node B auf Node C.
  7. Migrieren Sie die Daten-LIFs von Node B auf Node C.
  8. Ersetzen Sie Node B durch Node D (neuer Controller) und führen Sie alle erforderlichen Schritte zur Einrichtung, Festplattenzuweisung und Lizenzierungsverwaltung für Node D aus.
  9. Aktivieren Sie SFO. Migrieren Sie die ausgewählten Aggregate und LIFs auf Node D.

Typische Schritte beim Controller-Upgrade mit ARL

Abbildung 2) Typische Schritte beim Controller-Upgrade mit ARL

Beachten Sie, dass während der Ausführung von ARL die Hochverfügbarkeit für das Paar deaktiviert ist. Bei Storage-Controllern mit intelligentem Caching mit Flash Cache werden zwischengespeicherte Daten beim Verschieben von Aggregaten nicht zwischen den Caches übertragen. Der Cache auf dem Ziel-Node benötigt etwas Zeit, um mit den Daten des übertragenen Aggregats warmzulaufen. Möglicherweise benötigen Sie zusätzlichen Platz im Rack, um die neuen Controller unterzubringen, falls diese größer sind als die bisher genutzten Controller.

Best Practices für ARL

Um die erfolgreiche Verschiebung von Aggregaten sicherzustellen, sollten Sie einige Best Practices beachten.

  • Controller mit internen Festplatten (beispielsweise die FAS2200 Serie) innerhalb des Controller-Chassis erfordern die Volume-Verschiebung, um die Daten auf den internen Laufwerken physisch auf andere Storage-Ressourcen zu verschieben.
  • Sie können mithilfe von ARL ein Upgrade auf einen Storage-Controller mit derselben oder einer neueren Version von Data ONTAP durchführen. (Neue Hardware wird in manchen Fällen durch eine neuere Softwareversion unterstützt.) Falls nach dem Upgrade verschiedene Versionen gemischt vorliegen, sollten die anderen Nodes im Cluster sobald wie möglich auf dieselbe Version umgerüstet werden. Ein Node mit einer neueren Version von Data ONTAP kann Aggregate nicht auf einen Node mit einer älteren Version verschieben.
  • Verwenden Sie ARL nicht, während ein anderes HA-Paar in einem Cluster sich in einem Failover-Zustand befindet.
  • Sie können Jobs zur Aggregatverschiebung parallel erzeugen. Allerdings sind gegebenenfalls Volume-Beschränkungen auf dem Ziel-Node zu beachten. Wenn mehrere ARL-Prozesse parallel ablaufen, erkennen die Validierungsprüfungen möglicherweise nicht alle Situationen, in denen das Volume-Limit überschritten werden würde. Daher sollten ARL-Jobs nacheinander ausgeführt werden, falls Sie sich diesem Limit bereits nähern.
  • ARL-Jobs und Volume-Verschiebungen sollten separat ausgeführt werden, wenn die beiden Jobs dieselben Ressourcen verwenden.
  • Legen Sie für erneute Versuche ein Zeitfenster von mindestens 60 Sekunden bei Clients und Hosts fest sowie ein Zeitfenster von 120 Sekunden bei Protokollen, die dies unterstützen.

Neue Funktionen für Microsoft Windows

Clustered Data ONTAP 8.2 verfügt über mehrere neue Funktionen zur Verbesserung der Benutzerfreundlichkeit in Windows Umgebungen.

Unterstützung für SMB 3.0
CIFS verwendet das zugrunde liegende SMB-Protokoll zur Netzwerkdateifreigabe in Windows Umgebungen. SMB 3.0 fügt neue Funktionen zu früheren Versionen des SMB-Protokolls (SMB 2.0 und 2.1) hinzu. Dies führt zur Verbesserung des unterbrechungsfreien Betriebs (Non-Disruptive Operations, NDO) sowie weiterer Abläufe in Windows Umgebungen.

Freigaben mit kontinuierlicher Verfügbarkeit (Continuous Availability, CA) verbessern die Verfügbarkeit für Microsoft Windows Hyper-V. Bei früheren Versionen des SMB-Protokolls mussten sich Clients im Falle eines Failover-Ereignisses des Storage-Controllers erneut mit dem Storage verbinden. Bei CA sind Datei-Handles permanent, sodass das System auch während kurzer Netzwerkausfälle und beim Storage-Failover ohne Unterbrechungen arbeitet.

Im Falle eines Storage-Failovers werden Clients mittels Witness-Protokoll vorgewarnt, damit sie Anfragen proaktiv auf den noch funktionsfähigen Storage-Node verschieben.

Bei Client-seitigen Failovers spezifizieren Clients mit SMB 3.0 eine Applikationsinstanz-ID, wenn eine Datei geöffnet wird. Diese ID wird dann von den entsprechenden Nodes auf dem NetApp Cluster während der gesamten Lebensdauer des Datei-Handles aufbewahrt. Falls ein Client ausfällt, kann der noch funktionsfähige Client mithilfe der ID den Dateizugriff wiederherstellen.

Offloaded Data Transfer (ODX): Mithilfe dieser neuen Funktion von SMB 3.0 können Windows Clients zum Kopieren von Daten NetApp Storage nutzen und so die Last für den Host und das Netzwerk reduzieren. Diese Funktion kann innerhalb eines Volumes, zwischen Volumes auf demselben Node und zwischen Volumes auf unterschiedlichen Nodes eingesetzt werden.

Wenn ein Anwender einen Dateikopiervorgang initiiert, wird die Datei in der entsprechenden SVM geöffnet und ein Token zum Kopieren der Daten erzeugt. Dieses Token wird dann mit Anweisungen zum Kopieren der Daten an die Ziel-SVM übergeben. Der Kopiervorgang startet und sobald er abgeschlossen ist, wird der Client benachrichtigt.

Sofern möglich, wird die zu kopierende Datei geklont und nicht physisch kopiert, um Storage-Ressourcen zu sparen und den Vorgang schneller zu beenden.

SMB Auto Location: Diese exklusive Funktion von NetApp optimiert den Datenzugriff, indem Client-Anfragen auf die logische Schnittstelle (LIF) auf dem Node, der als Host für das Volume fungiert, umgeleitet werden. Da Volumes dynamisch in einem NetApp Cluster verschoben werden können, kommt es möglicherweise vor, dass Clients auf Volumes über LIFs zugreifen, die sich auf anderen Cluster-Nodes befinden.

Auto Location sorgt dafür, dass im Falle einer SMB-Anfrage an einen Cluster-Node nach einem Volume auf einem anderen Node der Client an die IP-Adresse einer LIF auf dem anderen Node verwiesen wird, um so zukünftige Anfragen mit einem optimierten Datenpfad und minimierter Latenz zu erfüllen.

BranchCache: Mit BranchCache werden Daten lokal auf dem Client oder auf einem dedizierten Cache-Server zwischengespeichert, um die Performance bei Lesezugriffen zu verbessern, insbesondere dann, wenn Daten über ein WAN abgerufen werden. Dank BranchCache können zahlreiche Clients Daten zwischenspeichern und den Zugriff auf diese Daten untereinander freigeben. Der NetApp Cluster fungiert dabei als vermittelnder Inhaltsserver für die CIFS-Freigabe. Alternativ kann ein Server als Host für den Cache konfiguriert werden, der zwischengespeicherte Daten von individuellen Clients abruft. BranchCache lässt sich innerhalb jeder SVM für alle Freigaben oder für individuelle Freigaben konfigurieren.

FPolicy
FPolicy ermöglicht die Konfiguration und Kontrolle von Dateirichtlinien. Partnerapplikationen können sich über dieses Framework mit NetApp Storage verbinden, um Dateizugriffe zu überwachen und zu kontrollieren. FPolicy wurde erstmalig in Data ONTAP 6.4 vorgestellt und ist nun auch zum ersten Mal in Clustered Data ONTAP verfügbar.

FPolicy unterstützt diverse Anwendungsfälle wie das File Blocking, das Kontingentmanagement, die Prüfung von Dateizugriffen und die Archivierung. Zu typischen Anwendungsbeispielen zählen:

  • Dateiarchivierung: Archivierte Dateien werden beim Zugriff durch den Client wiederhergestellt.
  • Monitoring von Dateizugriffen: Jeder Dateivorgang kann protokolliert werden.
  • Prüfung von Dateien: Hierzu werden Zugriffsprotokolle für Dateiobjekte erstellt.
  • File Blocking: Bestimmte Dateien wie Videos und Musikdateien können vom Storage blockiert werden.
  • Verzeichniskontingente: Kontingente für Verzeichnisse können feingranular kontrolliert werden.

Prüfung von Dateizugriffen
Es stehen die folgenden Funktionen zur Verfügung:

  • Überwachung des Zugriffs auf gesicherte Ressourcen sowie Gegenmaßnahmen (sofern nötig)
  • Nachweis, dass Sicherheitsereignisse eingetreten oder nicht eingetreten sind (in Situationen, in denen ein solcher Nachweis benötigt wird)
  • Einhaltung der gesetzlichen Dokumentationsanforderungen
  • Wiederherstellung eines bekannten, fehlerfreien Zustands mithilfe von Daten aus detaillierten Prüfungen

Clustered Data ONTAP kann sowohl erfolgreiche als auch fehlgeschlagene Datenzugriffe gemäß NTFS-ACLs und NFSv4-Audit-ACLs protokollieren. Ereignisse werden auf SVM-Ebene erzeugt und dargestellt und die Zugriffsprotokolle werden über mehrere verteilte Nodes hinweg generiert.

Schlussfolgerung

Clustered Data ONTAP 8.2 bietet zahlreiche neue Funktionen, welche die Leistungsfähigkeit von NetApp Storage erweitern und so die Effizienz und Skalierbarkeit Ihrer Storage-Umgebung verbessern und gleichzeitig geplante Ausfallzeiten eliminieren. Mit QoS erstellen Sie flexible Richtlinien zur Kontrolle der Ressourcen, die Workloads jeweils maximal konsumieren dürfen. Und mit der Aggregatverschiebung lassen sich Storage-Controller schnell, einfach und ohne Datenmigrationen nachrüsten. Neue Funktionen für Umgebungen unter Microsoft Windows bieten Ihnen mehr Optionen als je zuvor, um die Verfügbarkeit unter Windows zu verbessern und um Dateizugriffe zu protokollieren und zu prüfen.

 Ihre Meinung zu Clustered Data ONTAP 8.2?

Stellen Sie Fragen, tauschen Sie Ideen aus und diskutieren Sie online – in der NetApp Community!

Von Julian Cates, Technical Marketing Engineer

In seiner aktuellen Funktion als TME konzentriert sich Julian Cates auf Clustered Data ONTAP und die sichere Mandantenfähigkeit. Während seiner inzwischen neun Jahre bei NetApp kümmerte er sich um Pre- und Post-Sales in den Abteilungen Systems Engineering und Professional Services sowie um das technische Marketing für gemeinsame Lösungen von VMware und NetApp.

Tech OnTap
Melden Sie sich jetzt an.
Tech OnTap liefert jeden Monat Einblicke in die IT-Welt sowie exklusive Best Practices, Tipps und Tools, Interviews mit Entwicklern, Demos, Testberichte und vieles mehr.

Besuchen Sie Tech OnTap in der NetApp Community, um sich noch heute anzumelden.

Entdecken
Entdecken
Weitere Informationen zu Clustered Data ONTAP und Version 8.2

Eine agile IT beginnt mit NetApp – Webcasts
Diese dreiteilige Reihe gewährt detaillierte Einblicke in Clustered Data ONTAP.
  • "Maintain 24/7 Availability for Your Enterprise Applications", 27. Juni 2013
  • "Get Breakthrough Efficiency in Virtual and Private Cloud Environments", 18. Juli 2013
  • "Start Small, Grow Big with a Unified Scale-Out Infrastructure", 8. August 2013

Jetzt anmelden!

Entdecken
 
TRUSTe
Kontakt   |   Bezugsquelle   |   Feedback   |   Karriere  |   Abonnements   |    Datenschutzrichtlinie   |    © 2013 NetApp