NetApp Tech OnTap
     

Kundenreferenz: Implementierung von
Cloud Services der Enterprise-Klasse

Bei Verträgen für Cloud Services akzeptieren Kunden im Zusammenhang mit niedrigeren Kosten meist die schlechteren Service Level Agreements (SLAs). Bereits vor fünf Jahren begann T-Systems mit der Entwicklung seiner Dynamic Services – also lange bevor das Thema „Cloud Computing“ aktuell wurde. Die Idee bestand darin, Services über ein flexibles IT-Modell bereitzustellen, durch das die Effizienz deutlich gesteigert und Kosten reduziert werden können, zugleich aber ein hoher Service Level gewährleistet wird. Ursprünglich wurden die Dynamic Services für eine kostengünstige und einfache Implementierung konzipiert, die für Low-End-Märkte attraktiv sein sollte. Entgegen dieser Annahme weckten die Services jedoch sehr schnell das Interesse von High-End-Kunden mit Enterprise-SLAs.

Heute stellt T-Systems eine vollständige Produktpalette für IT als Service (IT as a Service, ITaaS) bereit, die von Storage als Service (Storage as a Service, SaaS) und Infrastruktur als Service (Infrastructure as a Service, IaaS) bis hin zu verbreiteten Applikationen wie SAP, Lotus Notes/Domino und Microsoft Exchange reicht und für die gleichzeitig Folgendes zutrifft:

  • Kosteneinsparungen um mind. 30 % gegenüber firmeneigener IT
  • Möglichkeit der schnellen Bereitstellung neuer Ressourcen
  • Self-Service Recovery in Minuten
  • Erfolgsquote bei Backup/Recovery von 100 %
  • DR zu einem Siebtel der Kosten
  • Sofort erstellte RPOs und Erstellung von RTOs innerhalb von 15 Minuten
  • Vereinfachte Migration für Neukunden
  • Unterbrechungsfreie Upgrade-Funktion
  • Um 50 % verbesserte Storage-Auslastung

Wir stellen diese Funktionalität durch eine Kombination von NetApp und VMware Technologien bereit. In diesem Artikel möchte ich die von T-Systems verwendeten Technologien erläutern, darstellen, inwiefern diese Vorteile für das Unternehmen und seine Kunden bieten und welche Pläne für die Zukunft anstehen.

Erstellen einer einfachen, standardisierten, virtualisierten Architektur

Wir wussten, dass wir für die Entwicklung unserer Dynamic Services eine Architektur benötigen, die auf einfachen, virtualisierten Bausteinen basiert, die nach Bedarf skaliert werden können. Nur durch die vollständige Virtualisierung auf Servern und Storage hätten wir die Flexibilität für Skalierungen nach oben bzw. nach unten – je nach Kundenanforderungen – und könnten gleichzeitig die Kosten gering halten.

Schließlich hat sich die Kombination von NetApp auf der Storage-Seite und VMware auf der Server-Seite als optimal herausgestellt. Wir stellen nur die größten verfügbaren NetApp Storage-Systeme als Produktionsspeicher zur Verfügung, um jederzeit – selbst bei einer extrem hohen Storage-Auslastung – eine optimale Performance zu bieten.

Trotz der vielen verschiedenen Anbieter haben wir uns für NetApp entschieden, da nur NetApp unsere Anforderungen erfüllen kann. In einem 90-Tage-Turnus erhalten die großen Storage-Anbieter unseren Forderungskatalog. Bis jetzt erfüllt immer nur einer unsere Anforderungen – und das ist NetApp.

Wir vertrauen beim Storage-Zugriff auf NFS (Network File Systems) statt auf SAN (Storage Area Network). Durch die Entscheidung für einen Ethernet-basierten Storage verzichten wir auf die Komplexität, die große SANs mit sich bringen, und benötigen deutlich weniger Administration als für herkömmliche SAN-Systeme. Weniger Fehler bedeuten auch höhere Service Levels. Und wir erzielen eine deutlich verbesserte Storage-Auslastung. Im Klartext bedeutet das drastisch reduzierte Storage-Kosten und eine größere Flexibilität.

Mit unserem alten Service-Modell waren beispielsweise sechs bis neun Wochen Vorlaufzeit erforderlich, um eine vollständige SAP-Lösung beim Kunden bereitzustellen. Mit Dynamic Services kann ein neues, benutzerdefiniertes SAP-System, das an die Anforderungen des Kunden angepasst ist, in nur acht Stunden erstellt werden.

Durch den Einsatz von Standardkomponenten können wir einen weiteren Vorteil nutzen, nämlich ein Konzept, das auf Austausch statt Reparatur basiert. Wenn eine Komponente, z. B. ein Server, ausfällt, können wir diesen dank eines Pools standardisierter Ersatzkomponenten sofort ersetzen. So müssen wir auf keinen Techniker warten, der in das Rechenzentrum kommen muss, um den Betrieb wiederherzustellen, wir vermeiden teure Wartungsverträge und können auf diese Weise die Kosten niedrig halten.

Bestehende Enterprise-SLAs erfüllen oder deren Zielvorgaben überschreiten

Mit der oben beschriebenen Infrastruktur als Grundlage sind wir in der Lage, SLAs bereitzustellen, die die Anforderungen unserer Kunden in Bezug auf die Erwartungen an ihre firmeneigene IT-Infrastruktur erfüllen bzw. sogar überschreiten.

Reduzierung von RPO und RTO für ein kostengünstiges Recovery
Anspruchsvolle Kundenanforderungen für RPOs und RTOs machen kostengünstige SLAs äußerst schwierig. Eine komplexe Cluster-Software bedeutet intensives Management und damit auch hohe Kosten und sie ist sehr störanfällig. Bei einigen unserer Kunden gab es Cluster-Lösungen mit einer Erfolgsquote von nur 70 bis 80 Prozent.

Dynamic Services basieren hingegen auf einem viel einfacheren Prinzip: Wir nutzen NetApp MetroCluster Software für eine synchrone Spiegelung, kombiniert mit sogenannten „Twin-Core“-Datacentern, d. h. Rechenzentren, die mehr als 100 Kilometer voneinander entfernt liegen. Für die Bereitstellung für den US-amerikanischen Markt haben wir beispielsweise ein Datacenter in Houston, Texas, das synchron mit einem zweiten Rechenzentrum im 160 Kilometer entfernten Westland, Texas, arbeitet. Wir haben NetApp vor die Herausforderung gestellt, dass MetroCluster über eine derart weite Distanz funktioniert – und sie haben die Herausforderung bewältigt.

Mit MetroCluster können Daten zwischen all unseren Twin-Core-Datacentern synchron gespiegelt werden. Wenn in einem Rechenzentrum ein Fehler auftritt, können die betroffenen Applikationen in einem anderen Datacenter neu gestartet werden und der Datenverlust ist gleich null (d. h. sofort erstellte RPOs) und innerhalb von 15 Minuten oder weniger werden die Applikationen neu gestartet (d. h. RTOs innerhalb von 15 Minuten).

Außerdem vertrauen wir auf VMware HA, um eine hohe Verfügbarkeit für Applikationen auf Virtual Machines zu erzielen. Beim Ausfall eines physikalischen Servers werden die betroffenen Virtual Machines automatisch auf anderen Produktionsservern mit entsprechender Kapazität neu gestartet. Dies ist eine Ergänzung zur MetroCluster-Funktionalität. Physikalische Ausfälle führen damit auf der Storage- und auf der Server-Seite nur zu minimalen Unterbrechungen oder werden sogar unterbrechungsfrei behandelt.

Durch die Einfachheit der MetroCluster-Lösung beträgt der Aufpreis nur etwa 30 %, eine herkömmliche DR-Cluster-Lösung kostet hingegen zwei- oder dreimal so viel. Dies macht unsere Lösung überaus attraktiv für Enterprise-Kunden. Im Endeffekt wählen nahezu alle Dynamic Services-Kunden diese Lösung für ihre wichtigsten Daten. (Weitere Informationen zur Implementierung von MetroCluster finden Sie in einer aktuellen Tech OnTap Kundenreferenz.)



Abbildung 1) Storage-Infrastruktur von T-Systems.

Keine geplanten Ausfallzeiten mehr erforderlich
Ein weiterer Vorteil der im vorherigen Abschnitt beschriebenen MetroCluster Konfiguration besteht darin, dass keine geplante Ausfallzeit mehr erforderlich ist, um Storage-Upgrades oder Wartungsarbeiten durchzuführen. Es wird eine Multi-Tenant-Architektur verwendet, in der sich verschiedene Kunden dieselbe Hardware teilen. Es wäre unmöglich, mit den Kunden einen gemeinsamen Zeitpunkt für mögliche Wartungsarbeiten zu vereinbaren.

Mit MetroCluster führen wir einfach einen manuellen Failover zu einer Cluster-Seite durch und aktualisieren das Storage-System auf der anderen Cluster-Seite. Im Anschluss erfolgt ein Failback, ohne dass die Kunden eine Unterbrechung bemerken.

Mit VMware VMotion machen wir dasselbe für Applikationen, die auf VMware Virtual Machines auf unseren Servern ausgeführt werden. Der Gesamtzustand einer Virtual Machine wird auf dem NetApp Storage in ein Datei-Set gekapselt. Bei der Verwendung von VMotion für eine Virtual Machine werden der exakte Ausführungszustand, die Netzwerkidentität und die aktiven Netzwerkverbindungen beibehalten. Es gibt also keine Ausfallzeit und keine Unterbrechung für Benutzer. Somit können alle Virtual Machines, die auf einem bestimmten Server ausgeführt werden, auf einen anderen Storage migriert werden – entweder im selben Rechenzentrum oder auf den Twin Core; dann wird der Server aktualisiert oder gewartet und anschließend können die Virtual Machines unterbrechungsfrei zurückverschoben werden.

Disk-basiertes Backup und Datei-Recovery nach dem Selbstbedienungsprinzip
Ein weiterer wichtiger Aspekt bei der kostengünstigen Bereitstellung von Enterprise-SLAs für unsere Kunden ist die Vermeidung von Tape-basierten Backup-Lösungen. Bekanntlich sind Backups auf Bandmedien kompliziert und bedeuten einen hohen Management Overhead. Darüber hinaus ist diese Methode langsam und fehleranfällig, sodass ein Recovery schwierig ist oder gar unmöglich wird.

Wir führen pro Monat durchschnittlich 50 Test-Restores in unseren Standard-Tape-Umgebungen aus (T-Systems hostet neben Dynamic Services auch Standard-Infrastrukturen) und die Erfolgsquote liegt bei etwa 75 Prozent. Es war notwendig, den Kunden eine Lösung anzubieten, die zuverlässiger und in Bezug auf erforderliche Kosten und Zeit deutlich günstiger ist. Wir haben uns für eine Kombination von NetApp Snapshot-Kopien für den Primär-Storage und NetApp SnapVault für die längerfristige Backup-Aufbewahrung auf Sekundär-Storage entschieden. Die NetApp SnapManager Suite bietet für Applikationen konsistente, applikationsbezogene Backups, indem diese effiziente Snapshot-Methode für weit verbreitete Applikationen wie SAP, Oracle und Microsoft Exchange genutzt wird. Es werden für jeden Kunden Snapshots erstellt und standardmäßig 30 Tage aufbewahrt.

Die Kunden können auf diese Snapshots zugreifen und ihre eigene Datenwiederherstellung durchführen – ohne Hilfe von T-Systems. Was vorher Stunden dauerte, kann nun innerhalb von Minuten erledigt werden und die Erfolgsquote liegt praktisch bei 100 %.

Sicherheit
Sicherheit ist für T-Systems ein sehr wichtiger Aspekt. Verständlicherweise machen sich Kunden Gedanken über Dynamic Services, wenn sie erfahren, dass es sich um eine freigegebene Infrastruktur handelt. Aus diesem Grund lassen wir unsere Systeme regelmäßig durch externe Auditoren prüfen, auf Anfälligkeiten testen und zertifizieren, um unsere Sicherheit unter Beweis zu stellen.

Zur Gewährleistung der Datensicherheit nutzen wir NetApp MultiStore Software, mit der mehrere separate und vollständig private logische Partitionen in einem einzelnen Storage-System erstellt werden können, d. h. ein Storage-System kann von mehreren Clients genutzt werden, ohne Kompromisse bei der Sicherheit oder beim Datenschutz einzugehen. MultiStore ist eines der zahlreichen Features für NetApp Storage, das das Produkt zur idealen Technologie für die „Cloud“ macht.

Schnelle Migrationsservices
Zahlreiche neue T-Systems-Kunden verfügen über bestehende Applikationen und Daten, die zu T-Systems migriert werden müssen, um die Vorteile der Dynamic Services nutzen zu können. Auch bei diesem Vorgang kann NetApp Technologie zur Prozessoptimierung eingesetzt werden. Dazu wird ein NetApp Storage-System beim Kunden installiert, um die Daten bereitzustellen. Dann werden die Daten mit der asynchronen Replikationsfunktion von NetApp SnapMirror vom Kunden zu einem unserer Rechenzentren migriert. Vor Kurzem haben wir für einen Kunden über ein Petabyte migriert – ganz problemlos.

Pläne für die Zukunft

Seit der Einführung im Jahr 2005 haben wir mit unseren Dynamic Services außerordentlichen Erfolg. Wir ruhen uns jedoch nicht auf unseren Lorbeeren aus. Dynamic Services 2.0 befindet sich bereits in der Planungsphase.

Das aktuell verwendete Twin-Core-Datacenter-Konzept ermöglicht ein transparentes Verschieben der Applikationen zwischen zwei verbundenen Rechenzentren, da die Daten an beiden Standorten synchron gespiegelt werden. Wenn jedoch eine Applikation in ein Rechenzentrum verschoben werden soll, in dem die Daten nicht repliziert sind, gibt es aktuell keine Möglichkeit, dies unterbrechungsfrei auszuführen. Mit dem NetApp Data Motion Feature [2] in Verbindung mit VMware VMotion werden wir die Möglichkeit haben, jede Applikation in ein beliebiges Datacenter zu migrieren.

Mit dieser Funktionalität verschwinden die Datacenter-Grenzen im wahrsten Sinn und wir werden in der Lage sein, echte globale Cloud Services bereitzustellen und die Vorteile der Datacenter-Ressourcen in vollem Umfang nutzen zu können. Wir können ein beliebiges Rechenzentrum maximal ausnutzen und Applikationen nach Bedarf verschieben, um die Auslastung gleichmäßig auf alle Datacenter zu verteilen.

Weitere Informationen zu T-Systems

Möchten Sie mehr über T-Systems und die Verwendung von NetApp Technologie als Teil der T-Systems Cloud Services erfahren? Hier finden Sie einige zusätzlichen Ressourcen:


Ihre Meinung zu Dynamic Services von T-Systems?

Stellen Sie Fragen, tauschen Sie Ideen aus und teilen Sie Ihre Meinung mit der NetApp Online Community!

Joshua Konkle

Dr. Stefan Bucher
T-Systems VP and Global Delivery Manager for Royal Dutch Shell

Seit Beginn seiner Karriere bei T-Systems im Jahr 1998 hatte Stefan Bucher verschiedene Positionen im Unternehmen inne: Im Jahr 2000 wurde er Leiter im Bereich Application Support, im Anschluss übernahm er die Führung für die Global Delivery Unit bei T-Mobile und sammelte damit Erfahrungen mit großen internationalen Kunden. Seit 2007 ist Stefan Bucher verantwortlich für mehr als 36.000 Server, 140.000 MIPS und 8 PB Storage. Er gewährleistet durch kontinuierliche Optimierung, maximale Sicherheit und Verfügbarkeit und fortlaufende Entwicklung hochwertige Hosting und Storage Services. Darüber hinaus ist er sehr innovationsorientiert.

Stefan Bucher promovierte an der Ludwig-Maximilians-Universität, München, in Physik.

 
Weitere Infos hier