Toby Cherasaro, NetApp IT, Manager, Storage Engineering, reflektiert über seinen Werdegang in der IT-Infrastruktur und darüber, wie NetApp Technologie seinen Ansatz zu Storage verändert hat und zu seinem Schweizer Taschenmesser geworden ist.
Wenn mich Leute fragen, wie ich nach zwei Jahrzehnten in der Infrastruktur bei NetApp gelandet bin, denke ich immer an den Moment zurück, als mir zum ersten Mal klar wurde, dass Storage nicht starr, undurchsichtig oder fragil sein muss. Er kann flexibel sein. Er kann effizient sein. Er kann meine Arbeit erleichtern, nicht erschweren. Und für mich geschah dieser Moment, als ich zum ersten Mal NetApp implementierte.
Die Geschichte beginnt aber viel früher, als ich noch IT-Manager war, voller Angst, dass mein gesamtes Rechenzentrum auf einem Block-Array saß, dem ich kaum vertraute.
Mein erstes Virtualisierungsprojekt war VMware ESX 3.5, das auf einem HP LeftHand Networks Block-Array lief. Die fast 60 Server versteckten alles unter ihrer Haube, und ich hatte fast keinen Einblick in das, was wirklich unter der Oberfläche geschah. Thin-provisionierte LUNs füllten sich unerwartet. Storage-Ausfälle fühlten sich wie zufällig an. Jeder Tag war eine Lektion darin, wie wenig Hilfe durch Tools ich hatte.
Diese Erfahrungen haben mich geprägt. Sie haben mir gezeigt, dass Storage nicht nur Kapazität und Performance ist, sondern dass es um Kontrolle, Beobachtbarkeit und Vorhersagbarkeit geht. Und ich hatte noch keines dieser Dinge.
Als ich später bei einem führenden IT-Lösungsanbieter in die Rolle eines Systemintegrators wechselte, begann ich, viele verschiedene Arrays für Kunden bereitzustellen, darunter auch NetApp. Und genau da änderte sich alles.
Im Vergleich zu Block-LUNs, die mir nichts sagten, fühlte sich das revolutionär an.
Damals begann ich, NetApp als das Schweizer Taschenmesser der Datenspeicherung zu bezeichnen. Einheitliche Protokolle. Dateneffizienz. Flexibilität. Optionen. Andere Arrays fühlten sich dagegen wie Fachidioten an.
Ein Schulbezirk wünschte sich ein Jahr lang täglich vollständige Veeam-Backups. Auf jedem anderen System wäre dies absurd gewesen. Aber die Deduplizierung von ONTAP machte es möglich.
Ich stellte eine 5-TB-CIFS-Freigabe bereit, und sie speicherten effektiv über 80 TB an Backups, ohne 80 TB physischen Speicherplatz zu benötigen. Als wir das theoretische Maximum für Deduplizierung erreichten, erstellte ich einfach ein neues Volume und machte weiter.
Keine aufwendigen Upgrades. Keine hitzigen Budgetbesprechungen. Einfach intelligentes, effizientes Design.
Eine weitere Kundenumgebung – eine SAP-Entwicklungsumgebung mit Offshore-VDI – war dabei aufgrund von Latenz zusammen zu brechen. Wir hatten ein knappes Budget und massive Performance-Anforderungen.
Unter Verwendung von All Flash FAS (AFF) + Network File System (NFS) habe ich einen 500-GB-Datastore erstellt, der 100 vollständig bereitgestellte Desktops beherbergte und dabei nur die Hälfte eines Solid-State-Drive (SSD)-Shelfs nutzte.
Es rettete das Projekt. Und es bestärkte mich in meiner Überzeugung, dass NetApp Geschäftsprobleme lösen könnte, die andere Arrays einfach nicht lösen konnten.
Als Clustered ONTAP auf den Markt kam, muss ich zugeben, dass meine erste Reaktion Angst war. Es wirkte komplex. Doch als ich verstand, was unterbrechungsfreie Betriebsabläufe bedeuten, machte alles Sinn.
Als ich bei NetApp IT anfing, war ich angenehm überrascht, wie ernst wir es nehmen, „unseren eigenen Champagner zu trinken“.
Jedes Produkt, das NetApp verkauft, wird von der internen IT genutzt:
Meine Karriere führte mich durch kleine IT-Firmen, Integratoren, AWS und jetzt zu NetApp. Nach all dem ist der Grund, warum ich hier bin, einfach: NetApp gibt Praktikern echte Werkzeuge, um reale Probleme zu lösen.
Es ist flexibel, effizient und leistungsstark. Es ist das Schweizer Taschenmesser, das meine Sicht auf Storage verändert hat.
Toby Cherasaro ist ein Dateninfrastruktur-Leader mit über zwei Jahrzehnten Erfahrung in der Architektur und Bereitstellung von Enterprise-Storage-Lösungen. Er leitet das NetApp IT Storage Engineering Team und treibt Innovationen im Bereich des Unified Datenmanagements und der KI-gesteuerten Automatisierung voran, um sicherzustellen, dass sich die Infrastruktur des Unternehmens mit neuen Technologien weiterentwickelt.