BlueXP is now NetApp Console
Monitor and run hybrid cloud data services
Hallo zusammen und willkommen zu einer neuen Folge Netup Kompakt, unserer monatlichen Webcastreihe hier bei Netp. Immer am ersten Dienstag eines Monats und heute ist wieder so ein erster Dienstag im Monat, nicht der im April und deswegen ist es wieder Zeit für eine Runde Netp Kompakt. Wir sind hier in dieser Runde mit einer Gemeinsamkeit unterwegs. Ähm wir sind eine große Community, weil egal ob wir mit Netapp arbeiten oder bei Netap arbeiten, wir sind Teil dieser großen Community. In Communities duzt man sich. Deswegen mein Name ist Bennet und ich werde euch heute hier durch die nächsten 60 Minuten begleiten. Das werde ich aber nicht alleine machen, sondern traditionell haben wir immer einige Gäste eingeladen und es freut mich heute mal wieder den Marco begrüßen zu dürfen. Marco, kommen in dieser Runde. Ja, hallo. Morgen zusammen. Marco Hauke, Solution Architect bei Netup und hauptsächlich kümmere ich mich um alles, was mit Object Storage zu tun hat und ich glaub wir haben noch ein dabei. oderda haben wir noch ein dabei. Genau aus der deutschen Hauptstadt des Marzipans. Und zum ersten Mal in dieser Runde dabei der Jan Henrik. Jan Henrik willkommen. Ja, moin aus Lübewerk. Der Jan Henrik Martenson Senior Solence Engineer auch sehr lange bei Nederup. kümmer mich um alle Anliegen, die technisch äh euch in irgendeiner Form auf dem Herzen liegen und versuche ich in die richtige Richtung zu beraten. Dann schauen wir mal, dass wir in die richtige Richtung beraten. Aber bevor wir das machen und zum Inhalt und zur Agenda kommen, habe ich noch mal so zwei Punkte ja in eigener Sache mitgebracht. Äh Punkt eins, ein bisschen Eigenwerbung.Während wir heute ja relativ theoretisch bleiben und viel mit Slides zeigen und viel erzählen, gibt es diese Woche Donnerstag noch die einmalige Chance, sich heute anzumelden für unser Lifelab.ist quasi das, was wir heute machen, nur in praktisch. Das heißt, wir stellen in jedem Teilnehmer ein eigenes virtuelles Lab zur Verfügung, ein Storage Grit mit allem Pippo, wo wir denn bestimmte Dinge machen werden. Z.B. so Sachen wielege ich einen Tendent an, wie lege ich einen Bucket an, wie mache ich den Bucket zugänglich, wie verwalte ich meine Policies, ähm generelle Adminarbeiten, Updatearbeiten etc. pp. Also, wer da Interesse dran hat, in einer Live Umgebung ohne was kaputt zu machen, ähm einfach mal was auszuprobieren, einfach noch mal melden, wer auf den Link unten klickt, das ist zwar die Anmeldeseite für die Kompakt, aber da ist denn auch äh der Hinweis auf das Livelab, die ich mich dort anmelde. Wie gesagt, heute 18 Uhr ist Anmeldeschluss, weil ich morgen nämlich die Labs vorbereiten möchte. Des weiteren haben wir dann nächsten Monat im Mai und das ist ein absoluter Toptipp, weil es ist für mich eine der coolsten Sessions, die wir bis jetzt so auf dem Radar haben. ähm die nächste kompakt ähm wie auch heute und da reden wir mal so gar nicht über Technik und Produkte im eigentlichen Sinne, die das man vielleicht von uns kennt, sondern wir reden darüber, wie wir als Net unsere eigene Technologie selber intern nutzen, denn am Ende des Tages sind wir auch nur ein ganz normales Unternehmen, was auch wie jeder andere und wie jeder hier in dieser Runde Prozesse abbilden muss, was wir wertschaftlich arbeiten muss, was durch Applikation unterstützt, eben diese Prozesse ähm fortführt oder tätigt Und wie bilden wir diese Applikation ab? Wie betreiben wir diese Applikationen? Wie kommt es zur Entscheidung, die Applikationen technologisch betrieben werden? Das wird eine extremst spannende Runde. Wir haben da auch einen deutschsprachigen Entwickler äh für uns gewinnen können, den Florian aus München, der uns ein bisschen was erzählen wird darüber, wie er sich um die Supportseite bei uns gekümmert hat. Also, wer da Interesse dran hat, Anmeldung wird bald live geschaltet hier unter dem Link, dann kann man sich dann auch für die kompakt im Mai anmelden. Wie gesagt, Toptipp, das wird echt ein richtiger Knaller. Dann Punkt 2. Ähm, die meisten hier in der Runde, die schon mal teilgenommen haben, kennen das hier schon. Für die,das erste Mal damit bei sind, kurz erklärt, wie das hier alles überhaupt funktioniert. Das sollte bei euch jetzt auf dem Bildschirm so ungefähr wie das hier aussehen, je nach Browser. kann es noch ein bisschen abgeändert sein. Die Folien sind in der Mitte zu sehen. Außenrum sind die restlichen Kacheln. Die Kacheln sind alle frei beweglich. Ich kann sie größer machen, kleiner machen. Fängt oben an, dass die Präsentation da hoffentlich wie immer als PDF hinterlegt ist. Rechts sind die Sprecher zu sehen. Der Mediumplayer, der wird heute nicht zum Einsatz kommen. Die Folie in der Hütte ist das Hauptfeld. Und links sind die Fragen. Die Fragen sind für den Anfang in der Tat erstmal ja omidirektional. Das heißt, wenn ihr Fragen stellt, ähm werd erstmal in dem Fragenfeld nichts weiter auftauchen ähm für die für die Masse, sondern erst wenn wir eine Antwort geben äh in Richtung äh derFragen, danntaucht dann auch die Antwort mit der Frage dazu auf. Und da die Bitte schon an alle hier in der Runde, wenn Fragen auftauchen, einfach sofort lostippen. Wir beantworten sie dann entweder live ähm oder ich unterbrech die beiden Kollegen während des Vortrags äh wenn es passend ist oder wir bewahren uns die Frage für die Q&A für das Ende auf. Und da kommen wir auch schon zum Punkt Q&A am Ende. Ein bisschen Agenda. Punkt 1 können wir schon abbacken. Das haben wir damit äh erledigt. Und äh Marco und Jan werden uns jetzt ja in der verbleibenden äh Zeit ein bisschen was über Objektspeicher erzählen. Was ist das überhaupt? Äh was können Netlab dort bieten? Für was kann ich sowas einsetzen? Und dann kommen wir ihm zur genannten äh Frage und Antwortrunde am Ende. Da werden wir noch ein wenig Zeit dann für eure Fragen haben, sofern wir sie nicht schon beantwortet haben. Das heißt, wer Fragen hat, ab in den Chat damit. Und bevor ich jetzt an Marken übergebe, ich mache schon mal hier ein weiter. Ähm, auf diesem Zettel unten steht 2 Millionen Tinder Swipes unten rechts. Äh, Marco, mal angenommen, du hast ein Erfolg gehabt bei Tinder und sitzt mit deinem Date zusammen und wirst gefragt, was machst du denn eigentlich beruflich? Und d sagst du, ja, ich bin Solution Architekt für Objektspeicher. Dann wird glaube ich erste Frage sein, okay, Solution Architekt und die zweite Frage wird sein, Objektspeicher. Was denn das? Wirdst du dann das erklären? Genau. Und dasversuche ich jetzt inpaar kurzen Sätzen äh zu machen. Und ähm wenn man sich dieses Rad, was passiert in einer Minute äh im Internet anschaut, ähm dann sind da halt sehr viele Sachen drin, die mit Objects Speicher auch direkt was zu tun haben. Also ähm z.B. Videos, die auf YouTube hochgeladen werden oder ähm in Chat Applikationen ähm die Bilder, die ich da teile mit meinen Freunden. Ähm, das sind alles Sachen, die äh ihre Daten auf einem Objektspeicher ablegen. Und das ist halt auch einer der großen Vorteile, die ein Objektspeicher hat, dass ich es anders adressieren kann als, sage ich mal, mit klassischem Sahn oder NAS Deutsch. wo ein bisschen die Unterschiede liegen, da komme ich dann in der nächsten Slide zu. Aber man sieht halt, dass auch in den letzten Jahren äh ein deutliches Wachstum in den unstrukturierten Daten stattgefunden hat. Und das sind unter anderem halt auch äh Dinge, die jetzt Objektspeicher angehen. Und ähm wenn man also mal klick mal eine weiter ähm wenn man so die Unterscheidung aufmacht zwischen was ist denn der Unterschied zwischen Sahn Storage, NAS Storage und dann Objekten? Äh, dann benutze ich eigentlich immer gerne so als Beispiel äh ein, wie ich mein Auto parke. Das ist eigentlich immer eine relativ gute Analogie. Ähm, wenn ich mir also ein Sahn Storage, einen Blogbasierten Storage vorstelle als einen großen Parkplatz, ähm dann ist da keine Struktur erstmal vorhanden. Das heißt, die Struktur kommt eigentlich durch den, sage ich mal, durch den Server oder der sich, sag ich mal, mit dem Stage verbindet, der legt ein Dateisystem da drauf, sein eigenes Dateisystemund bildet so eine Struktur in diesem ganzen. Das heißt, also für die Adressierung hat man dann, sage ich mal, nur ein Device File, ne? Wer Linux macht, der kennt DEF SDA oder sowas alsPlatten als Punkt, wo ich die Platte adressiere und ich lege dann da meine Struktur eigentlich als Server, also aus der Serversicht lege ich die Struktur fest.Bei einem Fallbasierten Storn kann man das so als Analogie wieder mit einer mit dem großen Parkhaus vergleichen. Oder wir haben Flughafen, wo ich vielleicht mehrere Parkhäuser habe, ne? Ich habe Stockwerke, ich habe Rhein und die Adressierung oder ich muss mir als Parkender muss ich mir äh merken, in welchem Parkhaus habe ich geparkt, welche Etage, welche Reihe, wo finde ich denn mein Auto? Und auf einem fallbasierten Storage ist das ähnlich. Ich muss ich habe also einen Fahrt, eine Hierarchie und sag ich mal, da muss ich mich entweder durchhangeln oder ich muss mir merken in irgendeiner Form, damit ich weiß, wo denn mein Auto steht.Und bei Objektspeicher ist das eher zuvergleichen mit einem Vallet Parking, ähm, wo ich vorfahre, mein Auto abgebe, ich bekomme dafür ein Ticket und wenn ich das meine ich mein Auto zurück haben möchte, dann händige ich nur mein Ticket äh oder halte mein Ticket vor und bekomme dann mein Auto gebracht. Und Objektspeicher ist ähnlich. Ähm, jedes Objekt hat ein einen Key, ein einen Schlüssel. Äh, in der Regel ist das der Dateiname.Ähm, zusätzlich hat Objektspeicher aber noch den Vorteil, dass ich zus mit den zusätzlich zu den Daten des das des der eigentlichen Datei auch Metadaten abspeichern kann, die meine Objekte in irgendeiner Form weiter beschreiben und die sind frei vergebar. Also ich kann ja z.B. sagen, ne, das ist ein rotes SUV, ne, kommt aus Deutschland und das erlaubt es mir Entscheidung über oder mit diesem Objekt mit diesen Metadaten zu treffen, Reports zu generieren. Ich kann Entscheidungen treffen, wie denn bestimmte Objekte z.B. will abgelegt werden. Wenn man das wieder auf den Parkplatz übertragen würde, dann äh könnte man sagen, ähm alle Cabrios, die offen sind, werden äh in einen überdachten Parkplatz geparkt. Und das kann ich mit einem Objektspeicher auch machen. Äh vor allen Dingen bei unserem Storage Grid und da kommen wir ja nachher noch zu, äh kann ich sowas anhand von Metadaten kann ich denAblageort fürObjekte z.B. bestimmen und das macht es sehr flexibel.Diese Adressierung, die man unten sieht bei einem Objektspeicher, ist also ein ganz normaler https Aufruf und das macht so interessant für Applikationen wie jetzt Webapplikationen oder Handy Applikationen ähm weil ich ein über einen ganz normalen über eine ganz normale URL auf diese äh Objekte zugreifen kann. Und das sieht dann so in der Form aus. Ich habe meine meinen Server Namen, meinen Hostnamen des Servers, ich habe einen bestimmten Port, dann habe ich einen Bucket und was ein Bucket ist, da kommen wir dann gleich noch mal zu und dahinter dann das eigentliche Objekt. Und da gibt's so zwei verschiedene Adressierungsarten oder diesupported werden. Ähm so favorisiert. Der modernere ist dieser Virtual hosted Style, wo ich zuerst den Bucket habe, dann den Server Namen oder die Server URL und dann erst das Objekt. Aber in der Regel werden da beide supported.Und wenn ich da jetzt drauf zugreifen will, dann kann ich das im simpelsten Fall mit einem einfachen Curl Kommando machen, ne? Und das habe ich mal unten so dargestellt, ne? Einfacher Curl Aufruf, den ich aus jedem aus jederKonsole machen kann. ähm auf das Objekt und ihr seht mal wieder, ne, der Buckel istPictures und äh der Objekt Key wäre also Netup Logo JPEG und dann speicher ich kann ich das irgendwo als Output dann auf der Platte abspeichern. Aber das ist natürlich nur jetzt so als Beispiel. In der Realität würde das halt in einer würde das eine Applikation für mich übernehmen, aber es zeigt einfach, wie einfach es ist äh auf Objekte zugreifen zu können, nämlich über ein ganz normalen Browser, ganz normalen Webaufruf.Und wie jetzt so in der Regel ein Object Storage funktioniert, ist, dass ich also meine Objekte in einem Bucket liegen. Der Bucket ist, sag ich mal, auf dem gesamten System verfügbar. Er ist eigentlich nur ein virtueller Container dahinter. Er ist erstmal auch unbegrenzt ähm verfügbar, natürlich an die Grenzen der Physik, des Story Systems gebunden, aber äh es ist nicht wie bei einem klassischen Volume oder bei einem Sahnlon äh wo ich sage, dieser Bucket hat jetzt ne 100 GB oder so. Das habe ich in der Form nicht. Genau. Und alle Objekte liegen in diesem Bucket.Und dann haben wir natürlich ein eine Möglichkeit zu sagen, dass Buckets normalerweise gehören die zu einem Account, das kann Mandant sein, das kann im klassischen Ont äh Umfeld in der SVM sein. ähm der aber auch dann über den gesamten über das gesamte Deutschystem verfügbar ist und äh halt auch ein virtuelles Konstrukt ist in dem Sinne, in dem meine Bucket oder zu dem meine Buckets gehören. Buckets gehören. Buckets gehören. Undwenn man das jetzt auf Storage Systeme rausbricht, dann ist das ein System und im Fall von Storage Grid kann das z.B. will auch geographisch verteilt sein über Kontinente hinweg. Ähm und im Falle von Ont, da fehlt nur eine Animation. Äh im Falle von dem Ontap System ist dieser Namespace, also da wie ich meine Objekte adressiere, äh ist gebunden an einem Klaster. Das sind so die schon mal kleine Unterschiede, aber über die genauen Unterschiede, was Netup jetzt im Portfolio hat zu Object Storage, da würde ich jetzt an den Jan Henrik übergeben.Sehr gut, dann steige ich hier direkt mal ein und dann sehr schön, vielen Dank. Ähm, ich jetzt gebe ich euch mal einen kleinen Überblick, was haben wir heute, denn äh es ist tatsächlich so, wir haben nicht nur eine Objektspeicherlösung im Portfolio äh sondern wir haben in Summe zwei und da will ich jetzt einfach mal auch bisschen die Unterschiede und Beispiele daringen. Ähm Marco hat schon gesagt, es gibt im Ontap mittlerweile ähm seit Ontap 98 offiziell tatsächlich schon in der ersten Ansicht mit 97 S3 im Onep selbst ist natürlich super angenehm. Das erweitert unser besteht unsere bestehende Plattform. Ähm, die meisten von euch kennen es mit Sicherheit, haben wir auch schon mal angefasst oder auch im Einsatz ähm, dass wir das jetzt Onepen, aber die Objektspeicherlösung Storage Grit ist mit Sicherheit auch schon äh vielen bekannt. Vielleicht der ein oder andere kennt äh den ersten Webcast, den ähm der Marco gemacht hat. Da haben wir damals Dachritt auch vorgestellt, also unsere richtig große Objektspeicherlösung, die halt sehrvielfältig einsetzbar ist. Und da gebe ich euch einfach noch mal einen Überblick und würde euch dann noch mal abholen. Ähm um euch auch dann später noch mal die Unterschiede vielleicht zu erzählen, wo findet eigentlich welche Objektspeicherlösungheute ähm wunderbaren Einsatz. Fangen wir mal mit Stor an. Das ist tatsächlich das, was wir mit am längsten im Portfolio haben. Ich müsste lügen, ich glaube, seit 2010 haben wir das mit Sicherheit schon im Portfolio bei uns. Und ist tatsächlich auch die ausgereichteste Lösung. ähm ausgereift in dem Sinne, sie ist unheimlich flexibel und auch also einsetzbar unheimlich flexibel, nicht nur in der technischen Ausbaumöglichkeit, auf die ich gleich noch zu sprechen komme, sondern vor allen Dingen auch in der Art und Weise, welche Applikationen unterstützt werden, denn ähm auch da müssen wir uns natürlich später Gedanken machen. Ähm denn Objektspeicher hat eine eigene Sprache, nennt sich dann halt hier wieder APIs. Es gibt es drei APIs und der Stouch Crit spricht mit Sicherheit also nahezu alles, was AVS ein de facto Standard als das Dreier irgendwie bestimmt vorgibt, ähm unterstützt ja nah, also eine sehrhohe Abdeckung und dadurch eine unheimlich große Integration in ein sehr breites Spektrum von Applikationen. Also hier haben wir so ein paar hochgeworfen, die gucken wir uns nachher mal an. ähm gehen mal ein bisschen rein, denn wir wollen euch dann auch das ganze Thema bisschen anhand von Anwendungsbeispielen ähm auch bisschen näher bringen. Ähm ja, Stage selbst als mittlerweile sehrumfängliche, also umfangreiche Lösung sie selbstlich sehr einfach implementieren, denn ähm wir fangen an, wirbrauchen drei Speicherknoten und haben ein Adminknoten. Und das Schöne ist, das ganze lässt sich entweder als Appliance, also wie man es halt auch kennt. Ich habe das Ganze in der Box, stell mir das hin, steck die Kabel rein und los kann es gehen. Oder auch als reine Softwareösung und das ist halt das, was es unheimlich flexibel und einfach macht, erstmal eben schnell aus äh zu rollen, kann ich das auch als reine virtuelle Plinsell Lösung äh aufsetzen und ausrollen. Das unterstützt vom Bernattelsystem, also sprich über Dockercontainer können wir das halt laufen, das ein bisschen zu fertigen. VMware OVAS lässt sich das wunderbar aufbauen.Ähm Marco sagte schon, das Interessante am Storricht ist vor allen Dingen die Georenanz, also viel mehr der große Namespace, den wir aufbauen, also einen einzigen Namensraum, also ich habe eine URL, womit ich diesen gesamten Objektspeicher ansprechen kann. Und mit Georundanz ähm können es Ländergrenzen sein, es können aber auch reine Städte oder Rechenzentrumsgrenzen sein. Ähm sod, dass ich einfach einen 3 4 5 se Standorte Konzept aufbauen kann mit so einem Objektspeicher. Ähm und ich habe immer nur eine einzige Adresse, die ich adressiere, also was wir hätten, also objektspeicher.net.comund egal wie, wo mich mein Lobbalancer hinweist, äh ich kriege meine Objekte zurückgeworfen.Ähm, das ist halt die Idee des Single Namespaces und das ist vor allen Dingen die große Stärke beim Thema aus Deutschrit. Zum einen die Georundanz, das große Standorts ähm die Standard Aufbaumöglichkeit.Ähm und was ziemlich cool ist,vor allen Dingen auch das ganze Richtlinien basierte Information Life Cycle Management oder ELM. Wir lieben ja Abkürzung in unseren Branchen. Ähm und das Ganze basiert auf den Metadaten. Ähm das ganze Objekte können mit Metadaten versehen werden. Was meinen wir damit? Wir können Objekte auf Basis ihrer Metadaten positionieren. Bleiben wir beim Beispiel Auto, dass wir sagen, ein roter SUV muss auf Basis meiner Policy an allen Standorten, die mir zur Verfügung stehen, als volle Kopie abgelegt werden. So und dann kann ich sagen, alles klar, die lege ich jetzt automatisch in drei Standorte. Wenn ich jetzt sage grün, die Farbe gefällt mir nicht, dieFarbe grün darf nur anzwei Stunder abgelegt werden, dann kann ich auf Basis dieser Policies sagen, wo Daten abgelegt werden. Ich kann aber auch hingehen und sie in der Laufzeit verändern. Wir hatten das Beispiel äh Cabrio,habe heute mein meine Parkplätze, ich habe heute Sonnenschein überall und habe meine Parkplätze, meine Caprios geparkt und kann anhand von Metadaten feststellen, ähm Mensch äh es fängt jetzt an zu regnen oder es wird anfangen zu regnen. muss jetzt gucken, wo sind die Cabrios offen und ähm ich habe nur hier an meinem Beispiel, sagen wir mal Berlin und Tokyo ähm müssen sind überdachte Parkplätze und ich muss jetzt alle Objekte, also alle Fahrzeuge aus New York umparken und dann kann ich das sehr einfach auf Basis dieser Policies tatsächlich auch machen, indem ich einfach sage, okay, ähm alles was offen ist, darf nur noch an Berlin und Tokio abgelegt werden oder muss jetzt umgepackt werden und dann kann so ein Objekt in dem Lebenszyk Plus sich ändern. Wenn wir mal technisch betrachten, sag ist ziemlich cool, wenn man das mal auf Videos wir werden, wir machen immer größere Videos mit 8K, 12k, wer weiß, wo die Welt noch hingeht, wenn man sich vorstellt, wie groß das ist. Zu Anfang sind Videos gerne genommen, sollen wahrscheinlich überall schnell verfügbar sein und das ist auch der Sinn und Zweck, wenn ich mir über ILM Policies überlege, wo sollen sie liegen, denn es wäre natürlich doof von New York die Daten erst aus Tokio lesen zu müssen. Wäre doch schön, wenn sie direkt in New York liegen. Nach einem halben Jahr interessiert sich da keiner mehr für. Dann dürfen sie gerne irgendwo zentralfühlich ganz zentralfühlich ganz zentralfühlich ganz und das Schöne ist natürlich es muss möglichst robust und wir haben eine hoch flexible und skalierbare Lösung hier sass wir wie schon gesagt wir haben eigentlich immer drei Komponenten an einem Standort s dass wir immer Komponenten können ausfallen imschlimmsten Fall ohne dass es den gesamten die gesamte Integrität des Objektspeichers in irgendeiner Form stört. Und das ist so erstmal als Übersicht zum Thema ähm Storage Grit. Gucken wir uns mal rein. Wie sieht's mit dem Thema Ontab S3 aus? Was eigentlich ziemlich cool ist, wie gesagt, seitOntab 98 ist für alle von euch, die Netupsystem haben, einfach Lizenzpfeile einspielen und ausprobieren und genau da greift es halt rein. Das ist für uns eine Protokolerweiterung zu dem schon sehr breiten Spektrum an Protokollen, was unsere Unified Storage Plattform, wie schön Basswords, also unser On letztenendes heute schon unterstützt, ne? äh einfach installieren und es kann jeder kostenfrei nutzen. Ähm wir bewegen uns hier in den Kluster alsNamespace undgenau das ist halt äh eins der großen Unterschiede. Dieses Puster ist in einem ist räumlich gefangen in einem Rechtenzentrum in der Regel. Ähm und genau da lebt dann dieses Objekt und auch genau da ist ähm dieMöglichkeit seiner Skalierung. Und wo man vielleicht noch sagen muss, ähm die Ontap spricht eine nicht so breites S3 API. Ähm das kommt sukzessiv immer mehr. Ähm aber es ist bildet heute einen wunderbaren Einstieg. Für alle die mal die ersten Schritte mit Objekten machen wollen oder halt Anwendung haben, die kein großes breites API Spektrum brauchen, bietet Ont eine wunderbare Einstiegsplattform. Also jeder kann damit vom Prinzip starten. Und halt mit der aktuellsten Version 19 haben wir auch die Möglichkeit äh endlich erst drei Objekte auch zu schützen. Ähm so sprich wir können sie klassisch replizieren, so wie wir es alle kennen, Snap Mirror zu nutzen, um sie auf ein zweites System zu bringen, um sie im Fehlerfall auch einfach nutzen zu können.Ähm damit ihr nicht alles merken müsst, kurz Frage Jan, ja,die ja immer gerne aufkommt. Du hast ja gesagt, wenn ich dann mein Lizenzpfile einspiele, was mache ich denn, wenn ich keinen Ontab S3 Lizenzpfeile hab oder wo kriegt das denn her? Da gehe ich auf die Netup Supportseite.Ähm, jetzt müsst ihr überlegen, da findet man unter My Installed Products die Master License Keys. Ähm, sonst sind sie bei unserem Technic Report, der auch später noch mal referenziert wird, auf die Master License Keys referenziert und da kann man sich diese diesen Lizenzfall runterspielen äh runterkopieren und einspielen.Da findet ihr den. Also gleich parallel Browser aufmachen und mal gucken, ob der Martinon recht hat. Ähm und dann werdet ihr ihn finden. Wie gesagt, funktioniert erst ab 98. Ganz wichtig. Ähm ab da könnt ihr das dann sofort nutzen, ne? Genau. Äh wie gesagt, damit ihr euch das nicht alles merken musst, wir haben euch das mal hier noch mal zusammengefasst, das ganze Storage Grit und Oners 3 gegenübergestellt. Wir Storage Grit als sehrumfänglich, also wir haben ein sehrbreite, ich nenn es immer ganz alsoS3 Spektrum, was wir hier sprechen. Wir können hier unheimlich viel große Unterstützung gegenüber einem Ontap S3, was relativ einen sehr kleine Abdeckung S3 APS hat. Sowas wie warm oder ELMs unterstützt halt nicht oder wie Versionierung. Da gilt es tatsächlich immer so ein bisschen zu prüfen, ähm kann dann mein System das oder kann meine Applikation mit diesem S3 Set umgehen, aber unterm S3 ähm hat definitiv und das auch da, wo wir es ganz stark sehen, ähm dieses Core Edge Cloud, ich s mal die Basswords haben wir auch mal gesehen, aber mal gehört Edge, also alles was außerhalb meines großen Rechenzentrums gegebenenfalls ähm Daten sammeln will. Wir sehen immer mehr Applikationen, neue Applikationen, die S3 brauchen oder haben möchten, um Daten abzulegen. Und da sehen wir vor allen Dingen später auch ein sehr,großen Nutzen äh um vielleicht so Ontap in der virtuellen Ontab Instanz laufen zu lassen auf Ontap Select beispielsweise. Aber ähm wir wollen das Ganze auch noch mal bisschen veranschaulichen und verbildern. Ähm wo finden dann vielleicht welche der beiden Produkte oder Lösungen äh einen wunderbaren Ansatz? Ähm und das ganze mal bisschen an Anwendungsbeispielen dargestellt. Guck mal Marco, da klicke ich für dich weiter in das Thema Anwendungsbeispiel und spiel dir den Ball wieder zurück ins Feld, so dass wir ein bisschen direkt in die Anwendungsbeispiele gehen können, wo es nutzen Ja, super. Dank dir. Und ich glaube so im wenn man sich im Netherup Umfeld oder in dem Ekosystem bewegt, dann taucht eigentlich immer so alsklassisches erstes die Einstiegsdroge ähm ist die Kombination von einem Ont System und das Tieren, das heraustieren von kalten Blöcken auf einen Objektspeicher.Das Feature nennt sich Fabric Pool und das macht's natürlich dann interessant, wenn ich zwar bestimmte Teile meinerDaten eine hohe Performance brauchen, das heißt, die würden ein AFF System rechtfertigen. Ähm, aber ich habe vielleicht auch äh Teile meiner Daten, die ähm, sag ich mal, über die Zeit auch kälter werden in Anführungsstrichen, also nicht so häufig nachgefragt werden, gar nicht die Performance eines AFFsystems ähm rechtfertigen würden. Und das sehen wir halt sehr viel im Fils Service Umfeld, ähm wo es auch sehr schwer ist äh zu sagen, na, welche Daten sind denn jetzt heiß oder kalt? die sind halt nicht alle konzentriert ineinem oder zwei Volumes, sondern die ergeben sich ja in der Datenmenge ähm sage ich mal, ohne dass ich die genau zuordnen kann, einem Volume. Und von daher ist Fabric Pool da ein sehr gutes Mittel, weil das Ont System entscheidet, welcher Block ist heiß oder kalt. Das Ontap System selbständig macht dieses Teering auf den Object Storage und kann auch bei Bedarf die Daten wieder zurückholen in den Performance Tier, in den lokalen Tier, damit dann bei zukünftigen Zugriffen auf das gleiche Objekt oder auf die gleichen Dateien ähm die Daten wieder schnell zur Verfügung stehen. Das heißt, es ist also auch ein transparentes Tieren voll automatisch. Ich habe keinen Management Aufwand und das wirklich coole da dran ist, dass das auf Blockebene passiert. Also das heißt auch wenn Dateien Dateiteileheiß sind, dann werden die in den in dem lokalen Tier vorgehalten und bei größeren Dateien dann die kalten Teile der Datei wurden auf Blogebene rausgetiert und das heißt, es ist halt auch es ist wirklich völlig transparent für die Applikation oder den Nutzer. Ähm genau. Und als äh jetzt was für ein Object Storage kann ich da benutzen? Das ist natürlich für die Onpremissysteme äh kommen da natürlich genau Ont S3 kann ein Zielsystem für die kalten Daten sein oder natürlich auch ein Storage Grid. Und da wir ja in Deutschland äh das Land des Metroklusters sind, äh habe ich mal so als Beispiel, wie das denn in einer Metroklasterumgebungaussehen kann, ähm mal dargestellt und ähm das heißt, wenn ich einen mein Metroklaster habe, der die Spiegelung des lokalen Tiers, also des Performance Tiers macht, ähm dann kann der Metroklaster kalte Blöcke heraustierenUnd damit die Ausfallsicherheit weitergegeben ist, macht das in dem Metrooclluster wird das über ein Fabric Pool Mirror. Also der Metroklaster, der heiße Tier, schreibt auf zwei unabhängige Buckets unabhängige Buckets unabhängige Buckets ähm seine Daten, seine kalten Daten. Und in im Fall von dem Ontype S3 würde das dann so aussehen, dass man zwei Fastsysteme in der Regel mit drehenden Platten und halt viel Kapazität ähm vorhält für die kalten Daten und dort liegt jeweils der Bucket A1 und dann der gespiegelte Bucket A2. Das wäre also, wenn man sowas mit einem Ontp S3 aufbaut. Bei einem Storage Grid muss ich mir vielleicht noch habe ich mir noch muss ich mir noch eine Frage stellen. Ähm mache ich das Ganze in einem großen Storage Quid System mit zwei separaten Sites. Das haben wir ja gelernt, das geht mit Storage Quid, ne? Dass ich mehrere Sites machen kann. Das wäre eine Möglichkeit. Über die ILM Regeln stelle ich sicher, dass die Daten Buckets A1 nur in dem Site 1 liegen oder in dem RZ1 und die Daten von dem Bucket A2 nur in dem RZB. Das ist eine Möglichkeit, wie man das machen kann. Ähm, ich persönlich finde auch, dass es die durchaus günstigste oder beste Lösung, weil es mir auch zusätz auch andere Workloads noch offen hält, die Option dazu andere Applikationen da drauf zu legen. Aber es ist durchaus auch völlig legitim zu sagen, nein, ich will wirklich zwei separate Storage Grid Systeme haben, die sollen völlig unabhängig voneinander sein. Die Daten meines Metrokusters, die sind so wichtig, dass ich das wirklich auch logisch trennen will, damit nicht das eine das andere beeinflussen kann. Und wir haben Kunden, die beides machen. Entweder ein großes Grit mit zwei Sites oder zwei völlig unabhängige Storage Grids. Ähm, wenn ich zwei Grids habe,ich natürlich auch vom Management Aufwand ein bisschen mehr, weil ich halt zwei Grits verwalten muss. Aber beides ist legitim. Ich persönlich präferiere eigentlich die mittlere Option, wenn ich Storge Quid mache, also ein großes Grit, weil es mir die Optionen einfach offen lässt für andere Applikationen. Und ähm da kommen wir dann gleich noch mal zu. Ich habe noch ein anderes Beispiel jetzt mitgebracht, wo wir Ont S3 auch nutzen können, wo auch äh sag ich mal das S3 SN Mirror, was ja jetzt relativ neu ist mit Ont ähmwie man das ein z.B. einsetzen kann. Ähm, erstmal so zum Verständnis, äh S30 Mirror ist ein asynchroner Spiegel. Die äh den RPO kann ich relativ niedrig setzen auf bis zu einer Minute. Also, das heißt, da ist auch nicht viel Versatz drin in dieser in diesem asynchronen Spiegel. Ähm, im Gegensatz zu einem klassischen Snap Mirror, wie wir ihn kennen, ähm gibt's einen Punkt, dass ich keine Wiederherstellungspunkte habe. Also, ich kann nicht auf Snapshot Daten zurückgreifen, zumindest im Moment nicht, ähm sondern ich kann nur den letzten Recovery Point wiederherstellen. Es ist also eher ein richtiger Spiegel als jetzt so ein klassisches äh Snapw in dem Sinne. Ähm, aber ich sag mal so, Funktionen in S3 gibt es ja wie Versionierung äh, die das dann auch mal ermöglichen könnten. Ähm, von den Zielsystemen her, also was kann ich als Ziel für diesen Snap Mirror benutzen, sind wir eigentlich auch relativ offen. Es kann ein anderes Ontap S3 System sein, es kann auch ein Storage Grid sein, es kann ein Azure Cloud Volume on Tab sein oder es kann natürlich auch ein AWS S3 sein. Und was ich damit jetzt also machen kann, den einen Usecase habe ich schon gesagt, ich kann mir ein Disaster Recovery, ein Spiegel äh von meinen äh Daten, die in einem S3 Bucket liegen, aufbauen. Ähm, das ist so der, sag mal, einer der klassischen Punkte. Und dann äh ein anderer Use Case, den ich mir vorstellen kann, ist ähm was Hendrik ja auch schon sagte, Ontp S3 als ne mit Edge to Core. Also in meinen Außenstandorten habe ich vielleicht ein kleineres Ontap System oder auch überhaupt ein Ont System, äh ein Fastsystem vielleicht oder ein Ont Select z.B., Select z.B., Select z.B., wo der Einstiegspunkt für meine S3 ähm Daten ist, die ich dann aber gerne zentral in einem in meinem zentralen Rechenzentrum äh noch mal jetzt sichern würde wer würde wer würde wer vielleicht auch weiter bearbeiten möchte. Also der Bucket in dem hier dargestellt in dem zentralen Rechenzentrum in meinem Storage Quid auf die Daten und auf die Objekte kann ich also auch ganz normal zugreifen, ne? Die Replikationsrichtung ist nur unidirektional, ne? Das geht also nur von Ont zu meinem RZ zu auf mein Storage Grid oder auf mein Ziel, aber nichtsdestotrotz kann ich die Daten da lesen und auch verarbeiten. Kurze Frage, die reingekommen ist, ja,ähm auf welcher Basis wird denn hier gespiegelt? Ist das ein richtiger Snap Mirror? Ist das ein Cloud Mirror? Oder haben wir da was völlig anderes ausgepackt?Wirhaben da was, sage ich mal, ähm was eigenes rausgepackt. Das ist basierend, sage ich mal. Sieht alles sehr, wenn man in dem Ont System Manager guckt, ähm dann sieht das klassisch wie ein Snap Mirror auf. Also, ich baue eine Relationship auf zwischen dem Ziel und dem äh zwischen der Quelle und dem Ziel. Ähm die Methodik ist aber eine andere. Also, es wird nicht unten drunter ein Blogbasierter Snapmror gemacht, wie das beim klassischen ist, sondern wir nehmen wirklich die logischen Objekte, ähm weil das in dem Fall einfach mehr Sinn machte. Äh, deshalb gibt's auch keine Snapshots in dem Sinne. Die Buckets in einem ähm in dem Ont System liegen auf einer Flexgroup. In der Flexop könnten hunderte von Buckets liegen und wenn ich jetzt Snapshots machen würde und dann klassisches Snap Mirror, dann müsste ich immer die komplette Flexgroup halt snapshotten und aus dem Grund mussten wir uns da was Neues ausdenken und deshalb werden also die Daten einfach mit einem S3 halt repliziert ähm halt mit dem S3 Sand Mirror. Alles klar. Okay, zum Thema Lizensierung des ganzen Kompente noch mal, falls die Frage bei dem oder der anderen gerade auftraucht, äh dann noch ein bisschen Geduld.Genau.Alles klar. Danke dir. Ja, dann ja, gerne. Auf alle Fälle. Ähm, ein weiterer Viewscase, wo natürlich auch äh, sag ich mal, unsere Object Lösung zum Tragen kommen, ist ähm der Cloud Backup Service. Das heißt also äh über den Cloud Manager gesteuert ein Backup meiner äh Ont Daten,bei dem ich ja auch jetzt schon oder bei dem ich ja auch Onpremise Systeme, also Onremise äh Ontab Systeme verwalten kann und auch sichern kann, entweder in die Cloud oder wenn ich natürlich im on Premise im eigenen Rechenzentrum unterwegwegs bin, auch natürlich auf ein Onpremise Storage Grid System z.B. ähm das heißt also ein Cloud gesteuertes Backup,das benutzt äh halt die Funktion Snapmror Cloud äh um meine Daten dann blockbasiert auch auf den Object Storage äh abzulegen. äh abzulegen. äh abzulegen. Auch ein Beispiel äh wofür ein Storage z.B. zumTragen kommt. Ähm und so als letzten Punkt zu meinen Use Case, bevor dann wieder der Jan Henrik übernimmt, ähm Backup Applikationen äh sind natürlich auch klassischerweise ähm einApplikationen, die ein Object Storage mittlerweile unterstützen. Da sind auch die klassischen dabei. Conwolt, Wim, Rubrik, IBM, Spektrum Protect, Veritas, die können alle auf ein S3 Ziel schreiben. ähm der Umfang der Funktion und das soll unten auch noch mal dargestellt sein. Also Storage Credits in ist bei denen, die jetzt da abgebildet sind, okay. Ähm bei S3 muss man es noch mal im einzelnen prüfen. Z.B. Vem und Ont S3 wird im Moment nicht unterstützt, weil da, weil VI gewisse API Calls macht, die zurzeit nicht unterstützt werden. Aber das ist was suggessive jetzt mit kommenden Versionen äh erweitert sich dieser S3 API Umfang und dann äh werden da auch immer mehr Applikationen mit dazu kommen, die unterstützt werden. Und wenn man da genauere Infos braucht, dann auf diesen Technical Report mit den Best Practices, noch mal der Link hier auch. dazu und damit glaube ich übergebe ich an den Jan Henrik und ich klick schon mal weiter. Ja, genau. Also ich hab Vielen Dank. Also ich habe mir mal Beispiel rausgesucht äh in Richtung ähm Archivierung, also eigentlich viel mehr wie sich eine Applikation transformiert oder wie was wir heute auch im Feld sehen und da einfach mal das Beispiel eine Archivierungssoftware, die bestimmt der ein oder anderen bekannt ist. ähm was wir auch durchaus schon bei Kunden heute machen oder auch gesehen haben. Also klassisch, wir haben heute eigentlich unsere eigentungsoffe Enterprise speichert seine Daten auf ein primäres System und macht einen klassisches Snapvall Snap Mirror auf einen Backup Disaster Recovery Büchse so klassisch mit Platten drunter, weil meine Animation etwas schneller als ich. Äh und da sehen wir ganz viele, die z.B. das schon ausgetauscht haben, dass sie sagt, okay, ich möchte eigentlich ähm meinBackup meine Backupmaschine etwas verschlanken. Ich möchte hier ähm einfach neue Technologien nutzen, vielleicht schon mal alsBasis schon mal als Übergang und dass ich ein Objektspeicher drunter packe. Die einen machen Storage Schritt, die anderen machen vielleicht unterbs 3 in diesem Moment und unten sieht man so ein kleines Bild, was man so sehen kann, was habe ich an aktiven Speicher, sprich was ist noch auf den Platten in so einem Gerät drinne und was wird heute aktiv rausgetiert ähm auf so ein Objektspeicher. Ähm und hier kann sich glaube ich jeder so selbst seine Gedanken machen, ähm was das bedeutet. Also viele gehen z.B. den ersten Schritt sagen, okay, ich will meine Primär Applikation noch gar nicht anfassen, sondern ich möchte vielleicht erstmal sowas wie Fabrikpool nutzen. Finde ich ziemlich cool. Lass es rausreplizieren und wir kümmer uns darum, dass wir es alles rausreplizieren auf einen Objektspeichern ganzen. Ähm, das ist für den ein oder anderen Einstieg und sagen, okay, das läuft schon ziemlich cool und läuft auch wirklich stabil, wenn meine Applikation das kann, auch hier in Enterprise, vielleicht sogar auf zwei ähm Ziele zu schreiben, warum nicht vielleicht auch gleich hingehen und das primäre System gleich um ein Fabric zu erweitern, weil meine zweite Kopie eh auf ein anderes Speichersystem läuft, um halt hier schon mal den Weg in Richtung Storage oder Objektspeicher zu gehen, weil äh so ähnlich die gleiche Transformationund auch die Wege, die wir jetzt Backup Software ist glaube ich das, was wir alle kennen, ne? Die haben alle irgendwie S3 erkannt für sich. Boah, große Nachfrage, eigentlich ein ziemlich cooler Usecase, um vielleicht Wandlaufwerke rauszuschubsen, ähm um wirklich externe Sicherung anders einfacher darzustellen. Genau das gleiche erleben wir bei ganzvielen anderen Applikationen. Archiv ist ein Beispiel davon, was wir hier sehen, Enterprise World. Ähm, ich treib mich sehr stark im Gesundheitswesen rum. Auch da sehen wir immer mehr und mehr Applikationen, die weggehen von klassischen Zifs und NFS, aber auch für die ist es natürlich eine Reise und genau das ist das, was man Beispiel darstellen soll. Wie kann so eine Reise ausschauen? Also auch hier Mensch, vielleicht kann ich mein primäres System schon mal anfangen so raustieren zu lassen auf so ein Objektspeicher, denn in Zukunft und das ist das, was die ersten sich auf die Reise machen, ist, dass ich so ein Objektspeicher direkt mit einer Applikation verheiratet und das Enterprise unterstützt heute ähm Storage Grit, also auch bewusst Storage Grit als primäre Lösung, weil jetzt gerade mit der aktuellen Version 116 ist das Thema im Object Lock dazu gekommen, so dass auch hier eine Warm Compliance direkt im Objektspeicher dargestellt werden kann. Äh und das ist der Weg, den wir ja, das ist nur ein Anwendungsbeispiel, was etwas, was wir immer mehr und mehr sehen. Es kommen immer mehr Anwendung auf dem Markt, klassische Anwendung, die ergänzt, umgebaut, erweitert werden. Ähm, aber auch in Zukunft neue Applikationen ähm die vielleicht sowas wie NFS ZIFS Block gar nicht mehr kennen, sondern vielleicht ihren persistenten Speicher in Zukunft von vorne rein in einem S3 Speicher suchen und wiederfinden werden. Ähm, aber hier mal eineReise, wie man sowas oder wir das auch schon heute bei Kunden eingeführt haben und wie Kunden das tatsächlich auch ähm sehr stark schon nutzen in dem ganzen.Ja, Marco, dann habe ich meiner Reise schon durch und wir finden auch ganz viele andere Use Casases. Wir müssen dich nur wieder hören. Genau. Ja, ich war auf mute und habe versucht eine Frage zu beantworten, die etwas länger war, aber komme ich noch zu. Mache ich schriftlich. Ähm, genau. Danke dir. Dann ja, was wir halt auch sehen, äh, dass immer mehr ähm von einem klassischen ähm Archiv, was, sage ich mal, wo ich Daten reinschreibe, die danach kaum noch oder nur noch sehr selten benutzt werden, man ja auch immer mehr im Analytics Bereich, vor allem auf sogenannte Online Archive, das heißt, ich will mit den Daten ja auch noch was anfangen. Und ähm da habe ich mal so drei verschiedene Beispiele mitgebracht, die äh wo Storage Grid ähm helfen kann bei Analytics Anwendung ähm sag ich mal Kosten zu senken. eine Entkopplung von meinen Computer Ressourcen, also in dem Fall jetzt, was wir jetzt sehen, im Splank Umfeld, meine Indexer äh diese Computleistung zu separieren von meinem eigentlichen Storage und das hat ein Vorteil, dass ich beides unabhängig voneinander skalieren kann. Das sehen wir sehr viel im Analyticsumfeld. Äh dieses Vorgehen hier als Beispiel mit Splank Smart Store, wo auf dem Indexer jetzt nur noch die heißen Daten gehalten werden und auch wieder kalte Daten rausgetiert werden auf ein Storage Grid. Und ähm unten habe ich auch mal Blogposts und den Technical Report dazu äh angefügt, die Links. Ähm wie gesagt, bietet den Vorteil, ich kann separat Comput ähm Kapazität erweitern oder skalieren. Ähm und wir sind da also voll supported von äh Splank auchmit einer Multisite Lösung, also mit zwei Storage Grid Sites, äh um das Ganze äh hoch verfügbar zu machen. Einen ähnlichen Ansatz verfolgen wir mit Vertica auch aus dem Analytics Bereich ähm wo die heißen Daten, also diegerade für die Analyse gebraucht werden in einem lokalen Depot heißt das imKontext von Vertica vorgehalten werden in den Vertica Notes. Aber kältere Daten, kalte Daten werden in einem S3 Bucket auf z.B. im Storage Grid vorgehalten und hier auch wieder das Ziel eine unabhängige Skalierbarkeit von Comput äh Leistung und Kapazität zu schaffen.Und aller die guten Dinge sind drei. Das Ganze gibt es also auch im äh funktioniert auch im KFK Umfeld. Ähm, heißt, meine Kafka Broker haben lokalen Storage für, sage ich mal, ihre die Verarbeitung der Daten, aber äh können kalte Daten oder Daten, die länger aufbewahrt werden sollen, in ein S3 äh Bucket auf einem Storage Grid z.B. beschreiben.Ähm, das sind so die, sag ich mal, jetzt so als Beispiele, wie das im Analytics Umfeld, was wie wo ich das Dor Grid nutzen kann. Und das sehen wir halt auch sehr viel. Und zu guter Letzt auch noch mal aus dem Analyticsum Umfeld, ein neues Feature, was bei Storage Grid 6 mit dazu gekommen ist. Ähm, ist S3 Select. Es ist ein bisschen ein Nerd Thema. Ich finde es halt relativ cool. Ähm, aber ich überlasse ihre Entscheidung und es ist eine Sache, wo äh der Analytics, die Software das unterstützen muss, aber es ist ein Feature, was wir jetzt mit unterstützen, ähm mit äh Storge Quid F6. Undwo da das Ziel ist, ähm die Funktion S3 Select ist auch wieder kommt von Amazon. Ähm und es erlaubt mir, dass ich den Inhalt einer eines Objektes filtern kann mit SQL Abfragen. Und der Mehrwert, den mir das liefert, ist, dass ich eine geringere CPUast auf dem Client habe, weil jetzt das Filtern von einer großen CSV Datei z.B. auf dem Client passiert und nicht äh auf dem Storage passiert und nicht auf dem Klient passieren muss. Und der andere Vorteil ist, dass ich eine sehr geringe Netzwerkauslastung dadurch hab, äh weil ich halt nicht das ganze Objekt übertragen muss, sondern nur das Ergebnis meiner SQL Abfrage. Und so auf der rechten Seite ist mal ein Beispiel, wenn man sich jetzt vorstellt, ich habe eine CSV Datei, die sage ich mal Gigabyte groß ist. Ähm, ich will aber nur bestimmte Datensätze aus dieser CSV Datei herauslesen. Dann kann ich das mit diesem S3 Select praktisch in diesem Aufruf machen, sage, hier ist mein SQL Statement und das Resultat sind nur die Ergebnisse von dieser SQL Abfrage. Äh, ich finde dasist ein cooler Ansatz. Ähm und wie gesagt, kann man im Analyticsum Umfeld, also gibt's einige Softwareprukte, die das unterstützen, z.B. Presto ähm die unter unterstützen diese Funktionen. Genau. Und dann kommen wir noch mal so ein bisschen, ich glaube Jan Henrik, du fängst wieder noch ein bisschen an mit Active IQ. Genau. Also der ein oder andere ist vielleicht aufgefallen ähm auch das Stone Schritt mittlerweile Autosupport sendet nicht nur das Thema Ontap, also es ist nicht nur, dass wir unsere Datammelrut natürlich dann in irger Form befriedigen möchten, sondern Active IQ. Ähm, ich hoffe, dass es viele nutzen von euch. Ähm, denn da geben wir auch sehr viel wieder zurück von den Daten, die wir sammeln, also, dass nicht nur Festplatten irgendwie ausgetauscht werden müssen oder sonst irgendwas, sondern wir ja auch diese Daten auswerten und die Information euch wieder zur Verfügung stellen. Und äh weil ich ziemlich super finde mittlerweile halt auch im Storage Grit ähm, dass sie diese Daten auswerten und das ganze Thema, was natürlich immer ganz wichtig ist, natürlich gibt es irgendwelche Security Sachen, dieerkannt worden sind, auf die wir hinweisen wollen oder auch müssen? Vielleicht gibt es sonst irgendwelche Alerts ähm oder die werden hier ausgewertet und wunderbar auch dargestellt. Das kann man sich dann auch wieder filtern lassen und auch automatisch zuschicken lassen, wenn man möchte. Und man kriegt hier wirklich sehr detaillierte Information. Es ist, ich geb zu, noch der Anfang. Es wird mehr werden, ähm was wir in Zukunft auch auswerten und dann auch darstellen können, damit ihr dann auch guckt, ist mein Stortschritt eigentlich noch up to date? Ist da vielleicht was Neues? Ist etwas, was ich übersehen habe oder etwas, an was ich dank denken muss? Wir vor allen Dingen im Bereich des Securities ähm wird mit Sicherheit das ein oder andere äh noch mehr kommen oder halt wenn halt irgendwelche Updates zwingt erforderlich sind. Cool ist natürlich aber auch, dass ich halt über den Grid F, wie ich ih dargestellt habe, ähm auch bisschen tiefere Details zu meinem Storage Grit an sich bekomme. Also, wie bin ich eigentlich lizensiert? Wie viel Knoten habe ich?kriege hier eine wunderbare Übersicht zu dem, was habe ich, wie sieht mein Grit aus. Das ist einerseits natürlich für euch ganz interessant, denn in Zukunft werden wir es wahrscheinlich auch für dokumentative Zwecke, dass man es einfach rausziehen kann im und der kennt oder nutzt es vielleicht der ein oder andere schon, umDokumentation zu haben. Ist natürlich aber auch ein Supportfall unheimlich wichtig und auch äh sehr hilfreich, vor allen Dingen, wenn wir hier schnell helfen können und uns gleich ein Überblick darüber verschaffen können. Ähm, wie sieht das Grit, wie ist es aufgebaut, wie steht das? Ich sehe hier die Sites, ich sehe wie in welcher Site welche Notes sind. Und was ich auch ziemlich schön finde, ist weil sonst, ich kann mich natürlich anmelden lokal, dann weiß ich, wie viel Kapazität in einem Objektspeicherlich verwendet wird oder wenn ich sag, okay, da soll keiner drauf gucken, sondern nimmt bitte dieses Dashboard. So kann ich auch mir hier auf jede Zeit Zahn zeigen lassen, wie wachsen eigentlich meine Kapazitäten in einer Zeit ähm oder wie wächst überhaupt eine Site. Dann kann ich mir eine Site aussuchen und dann sehe ich, wie viel Kapazität benutzt wird oder halt noch zur Verfügung steht. Ähm, wir haben heute eine Schwelle von 70 %, wird sich bestimmt irgendwann mal anpassen, aber dann sehe ich halt hier einenwunderbaren äh welche das entweder muss ich löschen oder halt bei den Accountmanager meines Vertrauens noch mal ankloppen und sagen, na, ich brauche noch mal paar Platten. Ähm, da müssen wir was tun, ne? Also, mal reingucken und mal reinschnüffeln, ob das heute schon ordentlich was sichtbar ist. Gehen wir in Richtung Lizensierung. Genau, da bin ich, glaube ich, wieder am Zuge. Ähm, von der Lizenzierung her sieht es so aus, ähm und das hat der Jan Henrik ja auch schon angesprochen, ähm das Protokoll an sich ist im Basebundle des Ont Controllers enthalten. Das heißt, oder über ein Masterkey kann das eingespielt werden, wenn es nicht schon da ist. Ähm, das heißt, also für die Nutzung des Protokolls an sich sind keine zusätzlichen Lizenzen äh notwendig.Für, wenn ich S3Snap Mirror nutzen möchte, dann bedarf es der Snap Mirror Funktion. Das heißt, ich brauche also ein Data Protection Bundle, äh wie es bei uns heißt, brauch diese die Lizenz dafür. Ähm, dafür. Ähm, dafür. Ähm, sonst fallen keine weiteren Kosten an, solange ich auf ein Netup äh System repliziere. Das heißt, also ich schreibe meine Snap Mirror als Daten auf ein Ontab S3 auf ein Storage Grid oder auch auf ein CVO in Azure, dann fallen da keine weiteren Kosten an. Wenn ich auf ein nicht netup ziel, im Moment ist das einzige, was wir da supporten, ist AS3. Äh, wenn ich dahin repliziere, dann wäre eine zusätzliche Lizenz über das Hybrid Cloud Bundle notwendig, die dann kapazitätsbasiertäh ist. äh ist. äh ist. Im Storage Quid Umfeld ähm haben wir zwei Lizenzmodelle. Das eine ist eine klassische Lizenz, Perpetual Lizenz, ähm die kapazitätsbezogen ist pro Terabyte. Die Lizenz läuft nie ab, aber klass, wie man das klassisch kennt, äh habe ich ein Software Wartungskomponente äh die dann jeweils verlängert w. Ähm was aber hier der Fall ist,dass diese Lizenz ich nicht reduzieren kann, ne? kann, ne? kann, ne? Ähm, das andere Modell, was wir unterstützen, ist ein Subscription Modell, also ein Abo auf eine genutzte Kapazität in Terabyte mit einer gewissen Zeitkomponente,die dann über Monate oder Jahre, mehrere Jahre gehen kann. Ähm, das heißt, der hat eine festgelegte Laufzeit,beinhaltet aber schon die Softwareung. Undam Ende der Laufzeit läuft diese Lizenz aus und ich müsste muss sie dann erneuern, wenn ich das System weiter benutzen möchte. Ein Vorteil, den das natürlich hat, ist es geht auf die genutzte Kapazität. Das heißt, ich kann also auch klein anfangen und dann langsam wachsen. Ähm und es hat den Vorteil, dass ich also auch diese Subscription, dieTerabyteanzahl erhöhen oder reduzieren kann, so wie ich sie brauche oder so wie ich denke, dass ich sie in Zukunft brauchen werde. Das sind so die Vorteile. Genau. Und was erforderlich ist,die Aktivierung von Autosupport, weil wir da drüber halt die das Lizenzmodell oder ja, diepraktisch nachschauen, ob ein Kunde ein die richtigen Lizenzen hat, richtige Lizenzierung hat. Und damit werden wir soweit durch äh Fragen und Antworten. Ich habe eine Frage gesehen im Chat. Ähm, wie verhält sich Storage Quid in Bezug auf Storage Efficiency? Gibt es da sowas wie Dedupzierung?Äh im Storage Quad Fall gibt'skeine Dedupzierung. Die Storage Efficiency kommt hauptsächlich durch eine Nutzung von Erasure Coding, also das Verteilen der Daten auf mehrere äh Knoten,die dann halt erlauben, dass ich, sage ich mal, ein Sicherheitsfaktor von 50% vielleicht auch weniger nutzen kann. Äh, es gibt noch eine weitere Funktion äh der Komprimierung, die dann auf das gesamte Grit äh angewendet wird. Da muss man aber im Einzelfall schauen, ob das für den Workload Sinn macht. Also, wenn ich hauptsächlich Bilddaten ablege oder z.B. für Fabric Pool das Ganze nutze, dann bringt mir dieses grittweite Einschalten von Komprimierung nicht unbedingt was. Dann sind noch ein paar weitere Fragen jetzt reingetrudelt. Ähm, kann ich, wenn ich das Hy Cloud Bundel nutze auch z.B. auf ein Minio System sichern? Äh wird im Moment Spiel ja, das S3 Spiels wird im Moment nicht unterstützt. Ähm, wir haben halt immer, also war ja so der ähm ist ja ein sehr neues ähFeature, sage ich mal, mit 191. Im Moment haben wir da relativ restriktiv oder sind wir relativ restriktiv, was die supporteten äh Zielsysteme angeht. Ähm, ich könnte mir aber vorstellen, dass das auch wie das bei Fabric Pool ist ähm sich das in der Zeit ändern wird, aber im Moment ist es nicht möglich. nicht möglich. nicht möglich. Mm. Und dann zweite Frage vomgleichen Fragesteller. Äh wenn das Ontap bei einem Ontab S3 dann stirbt, ich aber dann meinen Spiegel habe, ist ein Restore denn aus diesem Cloud Backup möglich oder brauche ich diesen Restore gar nicht, weil ich es eh gespiegelt habe?Ist das zu verstehen oder wiegehen wir damit um? Wie ist mit genau, also der Restore in dem Fall ist aus dem Cloud Backup möglich. Genau. Also, ich kann das da wird es ist äh es ist ein komplettes Backup meiner Daten. Ähm und daher kann ich ein Restore auch aus dem Cloud Backup machen.Perfekt. Dann ähm ist Fabric Pool auch bei einem SDS Metro Cluster supported. Wenn nicht, ist es in Planung? Äh ja, es ist supported. Ähm also das ist möglich. Das war kurz und schmerzlos. Also langsam trudeln so ein paar Fragen ein. Bisschen Zeit haben wir ja dafür. Haben wir uns ja auch geblockt. Noch mal eine Frage zum Thema Efficiency und Tiering von kalten Blöcken. Bleibt die Efficiency bei Fabric oder werden von der AFF delupierte Blöcke dann zweimal im S3 abgelegt? Äh nee, die werden also dieäh Sage Efficiencies werden beibehalten für diese kalten Blöcke. Das Raustieren findet auf der untersten Ebene statt, praktisch bevor es auf die Platten geschrieben wird. Und damit äh sind die Blöcke halt, da ist schon alles dedupliziert und komprimiert. Von daher bleiben die erhalten. Sehr schön. Sehr schön. Sehr schön. Gut, Fragen inbox ist leer. So wollen wir das haben. Wenn doch noch Fragen auftauchen im Nachgang, stehen wir natürlich auch gerne Gewähr bei Fuß bzw. das zuständige Deadp Accountteam kommt da einfach auf uns zu und wir können dann entsprechend weiterhelfen. Zwei Fragen sind noch reingekommen und die nehmen wir noch mal mit und dann schließen wir die Runde hier. Wann kommt Wormen unterm S3? Das kann ich nicht sagen, weil ich einfach auch nicht weiß, also es äh am besten mit den Account Teams äh noch mal sprechen, ähm dass man das auch, sage ich mal, bei unserem Produktmanagement einkippen kann, dasses da dass es äh dass sie das da ein Uscase oder eine Anwendung sehen. ähm dann kann man das immer auch, sag ich mal, über die adressieren. Okay. Das heißt also auch da auf das zuständige Net Accountteam äh zugehen und äh die Kollegen können das denn in die Regel leiten. Das heißt, wenn es da Wünsche gibt, das gilt ja generell bei uns äh nicht, dass es sofort in der Erfüllung geht, aber wenn man uns nicht sagt, was das Feld benötigt, dann wird es schwierig. Deswegen so eine Infos immer gerne hin zu uns. Und dann noch mal letzte Frage für heute. Wenn ich ein Metroclluster IP habe, wo ich eben dann mein äh mein S3 drunter habe, machen mein Fabric Pool und jetzt fällt eine Seite aus, was passiert dann? Ja, also äh da hängt's hauptsächlich davon ab, ähm ist die Seite komplett zerstört worden oder handelt sich nur um einen kurzzeitigen Ausfall. Bei einem kurzzeitigen Ausfall sieht so aus, dass der Metroklaster erstmal aufhört zu tieren, ähm weil er nicht mehr in zwei Buckets gleichzeitig schreiben kann. Wenn dann der Site wieder verfügbar ist, dann fängt das Teering wieder an und er schreibt halt dann die Blöcke, die aufgelaufen sind oder die er als kalt identifiziert hat, wieder raus auf beide Buckels. Gleichzeitig äh ist der Site komplett zerstört worden und ich muss im Grunde genommen das komplett neu aufbauen, dann kann ich über den noch vorhandenen Bucket praktisch eine Synchronisation starten auf dann diesen neu wieder angelegten Bucket, also praktisch auf den wiederhergestellten Backet. Das heißt, das macht dann der Metroklaster, der sorgt dafür, dass die beiden in synchron, also in dem Fall dann wieder neu aufgebaut werden. Perfekt. Gut, dann schließen wir die Runde damit. Ähm, alle Links, die wir heute hier gesammelt haben, hier noch mal in aufgelisteter Reihenfolge. Alle Links zu den ganzen technical Reports, die sind frei zugänglich. Da stehen alle möglichen Best Practices drinne, die es so gibt. Hier noch mal zum Nachlesen und damit vielen Dank für eure Teilnahme, für die Zeit, die ihr uns geschenkt hab und ähm noch mal erwähnt, die ersten Mails sind schon reingekommen in unsere Richtung. Wer Donnerstag dabei sein möchte am Livelab, denn bitte einfach auf den Link unten klicken, sich anmelden, äh weil mehrfach jetzt die Frage kam, wer schon Storage Crit zertifiziert ist. Nein, wir werden da jetzt nicht irgendwelche magischen neuen Sachen erzählen, sondern da geht's wirklich ganz normal um die Basics. Und ansonsten würden wir uns freuen, wenn wir uns in der Runde oder auch in größerer Runde zu dem Thema ja, wie wir intern unsere eigene Technologie nutzen oder Salot gesagt, wie wir unsere eigene Suppe auslöffeln. Ähm, das werden wir dann im Mai behandeln. Ich bin gespannt, was da kommt und ich kann mich dann noch hiermit bedanken. Marco, Jan Hendrik auch von meiner Seite. Merci, vielen Dank für eure Zeit. Ich schließe die ganze Runde jetzt hiermit und somit tschüss und
Ob als Datenpool/Data Lake, Medienarchiv oder Tape-Ersatz bietet NetApp Lösungen für Ihre unstrukturierten Daten.