BlueXP is now NetApp Console
Monitor and run hybrid cloud data services
[musik] hier [musik]Ja, herzlich willkommen zusammen zu unserer neuesten Ausgabe von Netp Kompakt, unserer Webcastreihe hier bei Netp. Immer jeden ersten Dienstag im Monat und somit auch diesen Monat wieder einmal. Es ist der erste Dienstag im Monat und dieser erste Dienstag im Monat ist ein ganz besonderer Dienstag. Äh, weilin weitenteilen Norddeutschlands haben nicht nur die Sommerferien begonnen, sondern ich habe mich von diesem Reisefieber auch anstecken lassen. Bin den gestern in den ICE gesprungen, in das leider doch gestern arg verregnete München gefahren, um heute hier bunt, live und in Farbe diese Kompaktreihe präsentieren zu können. Und ich freue mich wahnsinnig darauf, endlich mal seit zwei Jahren wieder in unserem Bro in München zu sein. Werde mich aber auch noch weiter freuen, weil dieses Mal ist es so, dass diese Reihe von der Kompakt auch noch einen besonderen Inhalt hat. Wir haben heute eine ganze Menge Speaker. Man sieht nur mein Bild gerade auf den Slides. Die Speaker heute werde ich auch noch mal im Laufe der nächsten einehalb Stunden vorstellen. Das gucken wir uns im Detail an. Aber heute werden wir ganz ausführlich über unseren großen Hybrid Cloud Lounge 2022 sprechen. Wir haben in den letzten Wochen und Monaten eine Reihe an neuen Produkten und Releases veröffentlicht und die werden wir hier heute zum Besten geben. Eine Sache noch für die,neu in der Runde sind, egal ob wir jetzt bei Netup arbeiten oder mit Netupp arbeiten, am Ende sind wir eine große Community. In Communities duutzt man sich. Äh, deswegen wir werden heute beim weiterhin beim Doiben. Ich bin Bennet und ich werde heute durch diese anderthalb Stunden führen. Dann mal eine Slide weiter, bitte. Ähm, bevor wir das machen mit dem äh durch diese anderthalb Stunden führen und zu dem Themenpunkten auf der Agenda heute, werden wir noch mal ein bisschen Werbung in eigener Sache machen. Wem das heute hier gefällt, der kann gerne am 2.08. noch mal dran teilnehmen. Dann neues Thema 2.0. Ein Tag nach meinem Geburtstag ist auch wieder der SD Dienstag im August. Da werden wir über das Netapp der anderen reden. Da geht es in erster Linie um Referenzprojekte, die wir dort beschreiben, die unsere SE dort beschreiben. Das heißt, das werden keine Referenzprojekte aus irgendeiner Marketingbroschre sein, sondern live aus dem Mund von den Leuten, die sie mitbegleitet haben. Das w zum Teil mit Plannen machen bei Kunden, aber zum Teil auch anonymisiert, weil Kunden eben nicht möchten, dass wir ihren Namen dort nennen. Man wird aber sehr schnell erkennen, dass es keine Fakeeprjekte sind oder ähnliches, sondern dass die wirklich auch so stattgefunden haben. Da haben wir doch eine Menge an ja Details mit dabei. Würde mich freuen, wenn der eine oder die andere im August auch wieder einschaltet. Anmeldelink ist ab morgen online. Kann man hier sich dann ab morgen anmelden. Link ist hier auf der Slide vermerkt. Und wem das hier auch gefallen hat, kann sich auch die alten Folgen der Net kompakt auf unserer netapp.tvseite TV Seite auch noch einmal anschauen. Apropos anschauen, ähm hier müsste irgendwo da oben irgendwo so ein Link sein. Ähm da habe ich auch noch mal die ähm die Kompakt Seite auf den Medap TV verlinkt. Und jetzt ähm wo wir auch gerade bei diesem Punkt sind, noch mal so ein bisschen, wie geht es bei diesem On 24 hier überhaupt? Äh vielleicht ist noch was der eine oder die andere neu auf dieser Plattform. Wir werden diese Plattform auch leider zum letzten Mal heute benutzen. Ähm das hat verschiedenste Gründe, deswegen stay tuned, was da in der Zukunft kommt. Aber heute noch einmal erklärt für die,jetzt ganz frisch mit dabei sind, die Fenster hier, die man um mich jetzt so rum sieht, die sind frei verschiebbar, die sind minimierbar, maximierbar, wie man das möchte. Ähm wichtigstes Fenster ist das in der Mitte, wo die Slides zu sehen sind. Das zweitwichtigste Fenster, je nachdem, wo ich jetzt gerade bin, ist entweder da oder da, sind die Q&A Punkte. Das heißt, wenn ihr Fragen habt, bitte schon während der nächsten anderinhalb Stunden diese Fragen stellen, sonst sind sie weg anschließend. Ähm, auch nicht wundern, dass dieses Feld erstmal bisschen leer bleibt. Die Fragen sind erst sichtbar, wenn wir sie beantworten. Das werden wir im Laufe dann auch der Präsentation und der Vorträge machen. Je nachdem, wie denn die Zeit dafür ist, werden wir auch die eine oder andere Frage live beantworten.Dann gucken wir uns mal die Agende an. Den ersten Punkt, den können wir schon mal abhaken. Ähm, den letzten Punkt, den werden wir ganz am Ende ab frühstücken und dazwischen zwischen seht ihr jetzt eine ganze Reihe an Punkten und wir wollten da jetzt nicht irgendeine Gewichtung reinbringen und irgendeinen bevorteilen oder benachteilen und deswegen werden wir heute das ganze einmal auslosen und unsere Losfee mag ich mal bitten, dass sie etwas zieht und einmal mir gibt. Und wir werden mit dem Thema Cloudmanager anfangen und da mag ich dann einmal den Axel ans Mikrofon bitten und dass wir einmal auf die Sides auf gerneden Cloud Manager Part einmal überleiten. Axel, magst du einmal ganz kurz, bevor du loslegst sagen, wer bist du? Was machst du bei Netap und vor allen Dingen, was hast du uns mitgebracht?Äh ja und genau in der Reihenfolge werde ich das machen. Erstmal schöne Grüße aus dem ebenfalls bewölkten tatsächlich Nochin Westfalen, wo ich gerade sitze. Danke, dass ich dabei sein darf. Ähm ich bin sogenannter PTL Partner Technical Lead, was bedeutet, ich bin ein SE für all unsere Partner und die Partnercmity. ähm und äh unterstütze sie logischerweise bei all ihren Fragen, die Sie technischerweise haben und auch im Lösungsbau und so weiter. Ähm das mache ich schon seit so relativ langer Zeit, bin über 10 Jahren bei der Netup. Äh habe jetzt tatsächlich auch einen konkreten technologischen Fokus in dieser Rolle. Ich kümmere mich tatsächlich nur noch um die Cloudprodukte aus dem Portfolio der Netup und wer es wer das so ein bisschen verfolgt hat, der weiß auch, das sind eine ganze Menge, ne? cloud.netup.com listet im Moment 23 Cloudservices auf. und da lohnt es sich durchaus auch mal zu fokussieren. Äh und in dem Bereich haben wir auch eine ganze Menge Announcements mitgebracht. Ähm äh die Session heißt Cloud Manager und äh umfasst vom Prinzip auch technologisch verschiedenste Service, die der Cloud Manager an sich hostet. Ja, also ist gar nicht der Cloud Manager an der Stelle, der neue nur neue Features mitbringt, sondern auch die jeweiligen entsprechenden Komponenten. Da komme ich äh gleich aber auch mal drauf. Fangen wir mal an. Ähm, der Cloud Manager an sich ist ja quasi das allumfassende Werkzeug äh für viele,unserer Cloud Services, die wir am Start haben. Äh, und diese Komponenten, die im Cloud Manager sind, die werden auch immer mehr. Äh was wir hier an der Stelle nämlich sehen, sind neue Integration innerhalb des Cloud Managers. Das werde ich euch gleich auch noch mal ganz konkret zeigen. Zum einen zeige ich euch und sprechen wir über die Integration des System Managers. Äh, der System Manager ist vom Prinzip das Werkzeug, das ja jeder kennt, der Netup on Premise äh hat und entsprechend verwaltet. Und der ist ähm nah tief in den Cloud Manager gewandert, zeige ich euch gleich auch mal als sogenannter Advanced View. Ja, ebenfalls hinzug hinzugekommen ist Active IQ. Auch das kennen viele unserer Kunden. Ähm und Active IQ äh ist ja vom Prinzip die Sammlung unserer Telemetriedaten. Ähm um verschiedene Informationen über ihre und eure Systeme äh aggregiert darstellen zu können, über Kapazitäten, über Performance, über Probleme, über Fehlermeldungen und so weiter. Auch das hat sich voll integriert in den Cloud Manager. Zeige ich gleich auch mal und gibt auch Empfehlungen ab für verschiedene Zusatzcloud Services, wie z.B. Tierigen oder Backup bezogen auf ihre individuellen Workloads und h außerdem hinzugekommen ist das sogenannte Digital Wallet. Digital Wallet ist eine Übersicht all ihrer Lizenzen äh inklusive Keystone und über Keystone will ich gar nicht so viel erzählen, da sprechen wir gleich auch noch mal drüber. Und neu hinzugekommen ist das Ransomware Protection Dashboard. Das will ich gleich auch mal zeigen. Und tatsächlich finde ich es immer am besten, wenn man es mal am lebenden Objekt zeigt. Das hier ist der Cloudmanager. cloudmanager.net.com ist die Adresse. So ein SARS Service kostenfrei zunächst. Ähm und bezahlen tut man eigentlich nur die Services, die man im Rahmen des Cloud Managers nutzt. Der Cloud Manager selber ist aber einfach so nutzbar. Und was wir hier sehen ist eine, ich nenn es mal Data Fabric vom Feinsten. Also sprich über alle Hyperscaler plus on Premissysteme hinweg. diverse Working Environments, so wie wir das nennen, die auch miteinander reden, also sprich Daten replizieren, Daten backupen und so weiter. Ähm und ich schnappe mir mal eins der ähm eins der entsprechenden ähäh Working Environments, nämlich das System unten links AWS Data 1. Das ist ein Cloud Volumes Ontab System. Und wenn wir hier mal äh drauf klicken, ja, äh mit vom Prinzip eine Doppelklick, dann kommen wir in die Details dieser Umgebung hinein, ja, und die sieht dann so aus. Der eine oder andere, der sich mit dem Cloud Manager und Cloud Volumes Online schon mal auseinandergesetzt hat, der kennt das auch. Und das Besondere an der Stelle ist eben jetzt oder das neue Switch to Advance View hier im oberen Bereich, da sehen wir es, ne? Äh und wer da drauf klickt, letztenendes ähm der kommt, wie wir es hier sehen, in den System Manager. Ja, das kennen viele unserer Kunden ähm von eben Onemis und der ist jetzt voll integriert im Cloud Manager ebenfalls vorhanden, um noch tiefgehendere Konfigurationsarbeiten durchführen zu können, wie z.B. Shares anlegen, Berechtigung vergeben, aber auch sowas, wir sehen das hier allesauf der auf der linken Seite hier. ähm ähäh Tiering Policies einrichten, Storage VMs, Quotas unduns. Also all die Dinge, die der Cloud Manager an der Stelle noch vermissen hat lassen, wo wir an der einen oder anderen Stelle tatsächlich den System Manager auch benötigt haben, ist jetzt quasi der Standard äh ist jetzt quasi der Advanced View.Ja, und somit bin ich hier noch tiefer in der mög oder noch weiter in der Möglichkeit tiefgehende Möglichkeit tiefgehende Möglichkeit tiefgehende Konfigurationsarbeitenäh zu leisten. Durch einen erneuten Klick da oben rechts, also diesmal auf Standardview View, kommen wir wieder zurück auf den ähäh klassischen View ähm auf den Ausgangsview vom Cloud Manager. Und was ich vorhin erwähnt habe, die Integration von Active IQ finden wir da oben auch. Ja, also sprich, wenn wir da jetzt drauf klicken und das tue ich an der Stelle mal, dann haben wir auch hier eine volle Integration dieses Active IQ Services. Viele unserer Kunden kennen den wahrscheinlich auch schon. Äh da sehen wir quasi Telemetriedaten ähm in verschiedensten Dashboards, wie hier z.B. das sogenannte Wellness Dashboard, wo wir über Performance und Efficiency quasi informiert werden, über mögliche aktuelle Cases, über Security Vulnerabilities,über aktuelle Ontap Versionen, die möglicherweise nicht eingespielt sind, aber eingespielt werden sollten undinklusive und das auch das sehen wir hier auf der linken Seite verschiedene Empfehlungen für weitere Technologien, um möglicherweise Kapazitäten freiuschaffen durch das Thema Tiering äh oder auch ähm ein Integration in das Thema Keystone, wo es Möglichkeiten und Workloads gibt, die sich vielleicht für Keystone an anbieten. Ähm oder auch sowas wie Valuable Insights hier unten einfach mal um zu sehen ähm was könnte denn interessant sein in meiner Umgebung, wie z.B. wie viele Support Cases habe ich in dieser Umgebung oder auch finde ich auch eine ganz interessante ähInformation, wie viel Storage habe ich denn durch die Effizienzen, die Ontap anbietet, eingespart? in dem Beispiel hier 6inhb Petabyte an der äh an der Stelle, ja, oder wie viele Software Upgrades habe ich in meiner Umgebung mittlerweile durchgeführt undne? Also ganz interessante Einblicke in meine komplette Netup Umgebung, die äh Active und damit eben jetzt auch der Cloud Manager zur Verfügung stellt. Auch neu, ich habe es gerade erwähnt, ist das sogenannte Digital Wallet vom Prinzip äh eine Übersicht über all unsere Lizenzen. Einmal, wenn ich Cloud Services unsererseits schon nutze über die Lizenzen, die Cloud Volumes on Tab benötigt, aber auch weitere Services wie z.B. äh Cloud Backup oder Cloud äh Cloud Teering oder sowas wie DataSense und so weiter. All diese Lizenzen sehe ich hier inklusive aber auch meine Onremis Ontap Lizenzen, also eine Aggregate Ansicht über all diese Lizenzen plus eben auch Keystone. Ja, und ich hab gerade schon erwähnt, über Keystone hören wir ein paar Details, aber ich sag jetzt schon mal, wie sich das Dashboard hier darstellt. Wir sehen die jeweiligen Keystone Lizenzpen einmal on premise, einmal als Cloud Volumes on Tab Lizenz Primary und einmal als Cloud Volumes on Tab Lizenz Secondary, inklusive der jeweiligen Subscription Nummer, weil Keystone ist ja vom Prinzip ein Subscription Modell und die sehen wir dann an der Stelle mit den jeweiligen Details.bedeutet, wie viele haben wir im Rahmen dieser Subscription Nummer committed? Wie viele davon haben wir verbraucht, also consumed? wie viele Instanzen davon laufen und wie lange läuft denn diese Subscription an der Stelle? Auch wenn es darum geht, wenn eine Subscription ausgelaufen ist, dann sehen wir es an der Stelle natürlich auch noch mal farblich markiert oder wenn es darum geht, dass die committeten Kapazitäten, so wie wir es hier an der Stelle sehen, bereits überkonsumiert worden sind und wir quasi in Burstmodus laufen, sehen wir das hier auch bzw. hier im orangen Bereich, wenn wir uns dieser Grenze eben auch nähern. Also eine sehr schöne Übersicht über all das äh was im Bereich Lizenzen von Interesse sein kann. Rensware Protection, auch das eine neue Komponente innerhalb des Cloud Managers und das was wir hier anbieten, ist an der Stelle eine sogenannte Cyber Resiliency Map. Ähm und was meinen wir damit? Letztenendes versuchen wir darzustellen, ob all die Möglichkeiten, die Net mit seinen Funktionalitäten und Technologien anbietet, ob die im Rahmen der im Cloud Manager befindlichen Systeme tatsächlich auch ausgeschöpft worden sind. Das versuchen wir durch eine Art Ampelprinzip zu machen, grün, gelb, rot. Äh, um darzustellen, habe ich alle meine Ontap Systeme denn tatsächlich auch mit regelmäßigen Snapshots und Snapshot Policies ausgestattet.äh habe ich das Ransomware Feature eingeschaltet oder habe ich das nicht eingeschaltet? Ist DataSense als Datenanalysewerkzeug eingeschaltet? ähm äh erkenne ich vielleicht auch sowas wie eine äh höhere und untypische Encryption Rate auf meinen Fils. All diese Dinge werden hier quasi in einem Dashboard dargestellt. Ähm und wenn etwas nicht in Ordnung ist, dann sehen wir es eben halt ja auch in rot, so dass man reinklicken kann und dann eben die entsprechenden Empfehlungen, die wir an der Stelle haben, auch umsetzen kann. Das ist der obere Teil dieses Dashboards. Man kann das Ganze auch noch mal nach unten scrollen. Zeige ich auch mal. Und dann sehen wir so ein paar weitere Informationen, wie z.B. hier oben rechts Berechtigungen, administrative Berechtigungen, administrative Berechtigung auf Shares. Will ich die haben? Was hat sich da in letzter Zeit getan? Ist das richtig oder ist es nicht richtig? Wir sehen offene Berechtigungen unten links äh sassen kann äh welcheFilschares bzw. welche Fils an sich äh haben denn äh Berechtigungen gesetzt, die für jeder Mann zugänglich sind. Die sind dann tatsächlich dann auch rot markiert oder das, was ich gerade auch schon angedeutet habe, was ist gerade mit dem Thema Encryption? Sehen wir hier plötzlich einen Anstieg in Dateien, die encrypted werden und das könnte ja auch schon mal ein Hinweis darauf sein, dass gerade eine Ransomware Attacke im Gange ist. Ja, all diese Dinge zeigt uns quasi ähm diese Cyber Resiliency Map. Und das sind all die Neuerungen gewesen vom Cloud Manager selber, also neue Komponenten, die da reingeflossen sind, aber auch die Komponenten, die vom Cloud Manager schonlänger verwaltet werden, wie z.B. Cloud Volumes Ontap hat Neuerungen erfahren durch den Launch, nämlich einfach durch die Tatsache, dass wir ein neues Ontap released haben. 911 existiert eben jetzt auch in der Cloud als Cloud Volumes Ontap, wo wir auf der einen Seite von Effizienzverbesserung sprechen durch eine Technologie, die wir TSSE nennen. sprechen wir gleich auch noch mal drüber in der Ontap 911 Session, aber auch sowas wie ransomware Enhancement durch die Funktionalität Autonomus ransomware Detection, die bisher im Cloud Volumes Ontap noch nicht möglich war, ist eben jetzt am Start. Was das genau ist, auch da verweise ich auf die zweite Session. Auch die Tatsache, dass wir das S3 Protokoll im Cloud Volumes Ontab unterstützen, ist neu. Und für die Kunden, die sich möglicherweise für Cloud Volumes Ontab interessieren in der AWS Cloud, äh da haben wir noch mal einen ordentlichen Performance Schoup hinlegen können, dadurch dass wir eben auch die neuesten Disken von der AWS unterstützen, die sich an der Stelle GP3 und IO1 nennen. Ja, auch die supporten wir für Cloud Volumes Ontap und können dadurch noch mal einen richtigen Io Schub zur Verfügung stellen. Für Kunden, die das Thema Tiering interessiert und nutzen möchten mit Cloud Volumes Ontab, auch da können wir an der Kostenschraube noch mal nach unten drehen, nämlich dadurch, dass wir einen Objektspeicher bzw. eine S ein S3 Tier unterstützen, das sich Glaevalnennt, was am Ende tatsächlich kostengünstige S3 Variante ist. Also Performance und Kostenoptimierung in diesem Bereich. Der Cloud Backup Service, den es ja auch schon etwas länger gibt, beherbergt auch neue Funktionalitäten. Da ist auf der einen Seite die Integration von On Premisumgebungen, was bedeutet, wir haben die Snapcenter Systeme, die unsere Kunden on Premise einsetzen, um applikationskonsistente Backups zu machen. Die haben wir gekoppelt an den Cloud Backup Service, optional natürlich. Und damit werden applikationskonsistente Backups über den Snapcenter möglich über den Cloud Backup Service in die Cloud zu sichern. Das finde ich eine super interessante Sache für ein SQLSver, für eine Orakeldatenbank, aber auch für VMware und Sapana können wir diese Dinge von on Premise Applikationskonsistent eben jetzt über den Cloud Backup Service in die Objektspeicher der Hyperscaler sichern.Single File Restore, auch eine Funktionalität, die wir in der Cloud durchaus schon lange haben aus dem Backup. Einzelne Dateien herausholen, supporten wir eben jetzt auch von Storage Grid on Prem Cloud Backup Service. Eine Funktion, die viele äh der Partner, die mit denen ich auch spreche, schon lange äh gesucht und erwartet haben, ist jetzt am Start. Äh und auch hier noch mal eine, ich sag mal vom Prinzip eine Kostenverbesserung, dadurch, dass wir für das Thema Search and Restore beim Backup, also wenn ich etwas Restoren möchte, einzelne Dateien, dass ich in dieser Funktionalität eine temporäre VM brauche, die mir ein Indexkatalog aufgebaut hat, das ist nicht mehr notwendig. Also, das heißt, äh durch das Fehlen dieser Instanz spare ich letztenendes auch noch mal Cloudkosten. Und schon länger möglich ist natürlich das Thema Backup und Restore von Fals, ist ja klar, aber eben auch Stateful CNTIS Workloads, die ich über den Cloud Backup Service sichern kann.Hinzugekommen ist auch ein Arkivier und das zeige ich am besten auch noch mal, wenn ich im Rahmen von Backups äh zunächst auf ein ja relativ schnell und gut verfügbares ähäh Backuptier äh ähm sichern möchte, dass ich das dann aber zweistufig zu einem späteren Zeitpunkt auf ein weiteres Tier verlagern kann, um an der Stelle eben auch noch mal Kosten zu sparen. Zeige ich gleich in der Oberfläche auch noch mal. Hier ist der Cloud Manager wieder. Wo befinden wir uns? Wir befinden uns hier äh unter Backup und Restore und dort unter Applications, damit ich euch mal zeigen kann, wie sich das denn so darstellt, wenn ich eine On Premise Applikation mit dem Cloud Manager bzw. mit dem Cloud Backup Service sichere. Wir sehen hier im unteren Bereich die konfigurierten ähDatenbanken, z.B. zwei Oracle Databases, die hier eingebunden sind, zwei SQL Server, die hier eingebunden worden sind und zwei Hana Datenbank, die hier eingebunden worden sind. Ja, und durch die entsprechende Konfiguration äh mit Scheduling und so weiter kann ich eben im Rahmen des Cloud Managers mit dem Cloud Backup Service und Premisdaten in die Cloud sichern. Applikationskonsistent finde ich super. Wenn wir weiterklicken jetzt auf Virtual Machines, stellt sich das ähnlich da. Ja, da sehen wir eben durch die Kombination Snapcenter und Cloud Backup Service meine on Premis virtuellen Maschinen, die auf einer VMware Umgebung liegen. An der Stelle in dem Beispiel 1728 virtuell Maschinen. Die Liste wäre also sehr lang. Ich kann auch den View hier umschalten, dann sehe ich nicht die einzelnen virtuellen Maschinen, sondern die ESX Hos bzw. Data Stores. Und auch da kann ich dann sagen, äh, wie ist meine Protection Policy, wie häufig sollen die ganzen ähäh äh Data Stores bzw. virtuellen Maschinen gesichert werden eben mit dem Cloud Backup Service. Total spannend, wie ich finde. Im Bereich Restore gehen wir da auch mal kurz rein. Ich habe das gerade erwähnt. Die Funktion Search and Restore ist neu. Vorher hatten wir die linke hier browse and Restore. Das ist quasi die,wir schon lange kennen. Search and Restore ist neu. Der Index, der dafür gebraucht wird für diese Suche, die wird quasi beim Durchführen des Backups erstellt und wird auf dem sogenannten Cloud Connector abgelegt. s, dass ich eben an der Stelle keine weiteren Ressourcen für den Aufbau des Index brauche. Und insofern kann ich ganz einfach über eine Suchfunktion die Dokumente zurückspielen, die denn gerade fürs Zurückspielen auch benötigt werden oder gefordert werden. Noch mal kurz auf eine andere Ansicht, auf die Ansicht der Volumes, denn ich wollte euch noch kurz darüber äh ähm aufklären, was denn unter dieser Archival Policy zu verstehen ist, die neu ist. Äh bisher konnten wir immer Backups definieren und Backup Policies definieren, basierend logischerweise auf einem täglichen oder stündlichen wöchentlichen monatlichen Backup. Jetzt ist hinzugekommen irgend eben diese Archival Policy, wo wir sagen können, das steht hier auch, dass wir nach einer gewissen Zeit, die wir selbst definieren können, hier unten habe ich jetzt mal eine 60 eingetragen, diese Backups vom Objektspeicher, den wir im oberen Bereich nutzen, äh raustieren können auf noch kostengünstigen günstigeren Objektspeicher. Und da stehen uns zwei zur Verfügung. S3 Glaep Archive, was die Sache dann auch noch mal kostengünstiger in der Speicherung macht. Was haben wir noch? Jetzt muss ich schon fast auf die Zeit gucken. Ich muss hier durchfliegen. Cloud Volumes Ontap kann auch als Warm eingerichtet werden. Ja, finde ich super. Ähm, dann gehe ich noch mal schnell durch. Cloud Manager Darkside Support. Dieser Cloud Manager, den ihr gesehen habt, ist ja ein SAS Service, aber ihr habt die Möglichkeit, diesen Cloud Manager mit diesem Funktionsumfang auch on premise einzusetzen ohne jegliche Internetconnectivity Darkside halt, damit verwalte ich mein On Premis System, damit kann ich Cloud Backup Service mit Storage Grid on Premise als Backupziel verwalten, ja, was auch cool ist, glaube ich. Und damit kann ich auch Cloud Data als DataAnalytics Engine verwalten. Ja, komplett ohne Internetconnectivity auch ein Wunsch, den viele unserer Kunden äh geäußert haben. Und wo wir gerade bei Cloud Data sind, da sind auch ein paar interessante FunktionalitätenBerechtigungsanalyse, Schlagwortsuche an der Stelle und mein Lieblingsfeature und damit mit dieser kurzen Demo beende ich dann auch meine Session Conditionally Sync. Das ist quasi eine Kombination aus Cloud DataSense und Cloud Sync und das will ich euch wie gesagt mal kurz zeigen. Wo befinde ich mich gerade? Ich habe hier quasi auf DataSense geklickt und dann auf Investigation geklickt. Und dann sehe ich die Möglichkeit, dass ich über der äh unter der unterder Überschrift Data Investigation die Möglichkeit habe, alle meine Daten, die äh analysiert worden sind, zu filtern. Ja. Ähm und da sehe ich z.B. so eine Möglichkeit, dass ich alle nichts sensitiven Daten filtern kann und die dann über eine Kopiefunktion, also hier ist der Filtergesetz und hier über eine Kopiefunktion dann eben replizieren lassen kann. So, ich bin mal ein bisschen schneller und dann kommt quasi ein Assistent äh der mich fragt, wie willst du diese Daten denn replizieren lassen, ne? über eine klassische Kopie über auch ein Flexcllon können wir an der Stelle auch machen oder über Cloud Synk und dann wird vom Prinzip hier quasi der Cloud Synk mit diesen gefilterten nicht sensitiven Daten durchgeführt. Ja, und das springt mir dann quasi automatisch, das sehen wir dann hier im oberen Bereich, automatisch springt ins Synkfenster rein und ich kann meine Daten replizieren. So und ich weiß, ich habe ein paar Minuten überzogen, entschuldigt, aber es ist so viel an neuem Zeug, die Kollegen muss ich jetzt bitten, ein bisschen Zeit aufzuholen. Danke. Ich gebe zurück. ins Studio nach München. Ja, danke Axel. Äh und du hast elegant dezent überzogen. Ähm der Kasten Bier ist uns sicher. Wir haben gewettet, einverstanden. [gelächter] einverstanden. [gelächter] einverstanden. [gelächter] Aber gut, wir haben auch äh noch nicht wirklich eingegriffen, weil das Thema eben auch sehrinteressant ist und ein sehrmächtiges Tool ist und wir haben leider so ein Pulscheck schon zu früh abgefeuert. Ähm, denn wen wir noch mal parallel jetzt kurz starten. Ähm, an die Zuschauer und Zuschauerinnen, äh, wer hat den Cloud Manager schon einmal ausprobiert? Äh, bitte mal Daumen hoch, bitte mal Daumen runter, je ob ja oder nein. Äh, gibt's auch Wortmeldung im Publikum schon. Ähm, wer ihn noch nicht ausprobiert hat, äh je nachdem wie spiegel vergett ich bin, gibt's hier oben ja noch mal das verlinkte äh Fenster. Da ist unser Hands onlab auch noch mal verlinkt für Kunden und für Partner, aber gerade für Kunden ist das gedacht und äh da sind verschiedenste Labumgebung, wo man eben auch unter anderem den Cloud Manager ausprobieren kann, ohne dass ich mir jetzt da eine komplette Umgebung bei Asure, AWS oder Q aufbauen müsste. Gut, dann kommen wir zum nächsten Thema und ich bitte einmal unsere Losfeeh nach vorne und es gibt ein neues Thema. Vielen Dank. Und äh als es nicht passender sein könnte. Axel hat gerade schon paar mal über Keystone gesprochen, dann werden wir jetzt über Keystone sprechen und hier würde ich jetzt einmal den Michi begrüßen und der ist auch hier live und in Farbe vertreten in München und ich würte sagen, lass mal die Plätze tauschen.Genau.Und dann legen wir einmal los. Du hast übrigens paar Minuten weniger. Das ist mal die beste Vorgabe, die es gibt. Dann hallo, äh ich bin der Michi, komme aus Wien und erzähle euch etwas äh über Keystone.Ähm und würde gerne das erstes Leid haben, da ich ja keine Zeit habe. Äh, so wie oft im Leben äh haben wir festgestellt, äh schwarz und weiß gibt es bei unseren Kunden sehr selten. Bei unseren Kunden äh würde das heißen unpremise oder Cloud. Das, was wir bei unseren Kunden sehen, sind äh ihre Workloads in einer hybriden Welt. Sprich, ein Teil ihrer Daten, ein Teil ihrer Workloads sind bei Ihnen im Rechenzentrum, ein Teil ihrer Daten sind in Cloud Anwendungen untergebracht. Aber der wichtige Teil liegt genau dazwischen, so wie im Leben. Ein bisschen grau darf es ruhig sein. Ähm und da ist net dafür bekannt, dass wir das sehr gut können. Lieber Christ, bitte einmal klicken. Und wie machen wir das? Äh, ein Beispiel, wie man das Ganze steuern kann, wurde zuerst schon gebracht. Der Cloud Manager hilft uns hier. äh Ontap ist die Spinne in der Mitte, die es ermöglicht Daten zu bewegen. Aber mit einem weiteren Klick äh bekommen wir noch ein weiteres Vehikel dazu, nämlich die Kistonbrücke. Warum sehen wir Kiston als Brückentechnologie dazwischen? Ähm, wir haben schon in der Vergangenheit bewiesen, die Daten können wir gut bewegen zwischen Onpremis und Cloudanwendungen.Das, was wir mit Kiston dazu ermöglichen,ist die äh ist die Funktionalität auch die Zahlungsströme entsprechend anzupassen. Dieses Thema eine Subscription für Onpremise und Cloud Anwendungen wird mit Kystone sehr galant und sehrkomfortabel eigentlich. gelöst.Wie kann man sich das im konkreteren vorstellen? Bitte sehr. Ähm Keystone bietet die Möglichkeit Daten zu verschieben über Ontpfunktionalitäten, über Ontpfunktionalitäten, über Ontpfunktionalitäten, über Storage Grit und über die Technologien, die all unsere Netupkunden schätzen und mögen. Äh und gleichzeitig die Nutzung der Subscription auch bei den Hyperskalern äh zu forcieren. Gesteuert wird das Ganze und da bin ich sehr froh über kein neues Tool, sondern über den Cloudmanager, so wie es Zerst Axel schon gezeigt hat. Der Cloud Manager wurde erweitert. Ich kann in dem Cloud Manager meine Subscriptions für meine Onpremise Workloads, für meine äh für meine Cloudworkloads gemeinsam nutzen und gemeinsam verwalten. Genauso bekomme ich einen Überblick über Performance äh und Nutzung dieser und habe damit eine sehr galante äh eine sehr galante Darstellung, was ich benutzt habe. Für viele unserer Kunden ist es auch sehr wichtig, Kiston ist kein Entweder oder, sondern es lässt sich mit ihrer bestehenden Umgebung, mit eurer bestehenden Umgebung äh sehr gut kombinieren. Sprich, äh, das englische Fachwort dazu und jeder kann es drei, vier mal üben, bedeutet heißt Comingelink. Mit Comingeling kann ich Bestandssystemeund Keystone zusammenführen und beispielsweise on premise oder bei meiner primären Workload Keystone einsetzen und ein Backup auf meine Bestandsnet machen oder in die Cloud oder überall dorthin, wo gesprochen wird. Ähmwas bietet Kiston und wo wird Kiston denn eingesetzt? Äh, das was es auf jeden Fall bietet, es bietet ein hundertprozentiges OPEX Modell, spricht die Wirtschaftsprüfer, wenn man sich dazu entschlossen hat, man möchte auf einen OPEXzahlungsstrom umstellen, akzeptieren Keystone als OPEX Modell. Ähm, somit bezahle ich monatlich oder jährlich eine Subscription, bekomme eine entsprechende Hardware zur Verfügung gestellt, die meinen Anforderungen entspricht. Die Hardware gehört nett ab, steht bei euch im Rechenzentrum oder bei einer Eckwenix oder bei einem unserer Partner. Und diese Hardware wird ganz normal genutzt, sowie das jetzige Ontp System auch. Ähm, was bringt es? einen eine große Anzahl von äh Funktionalitäten und Flexibilitäten.Eine davon ist beispielsweise, es befindet sich immer im Kistonsystem ein Buffer von 20%. in der heutigen äh Liefersituation ein großer Vorteil, wenn ich von Haus aus 20% mehr habe, den bezahle ich nicht, den bezahle ich erst dann, wenn ich ihn nutze. Ähm, ich kann ihn aber jederzeit nutzen und kann ihn mehr oder weniger tagesaktuell nutzen. Wenn ich ein bisschen mehr brauch, äh erweitere ich quasi oder wachse ich in den Buffer hinein. Brauche ich ihn nicht, wachse ich aus dem Buffer heraus.Wird der Bufer länger benutzt, bekommt man einen netten Anruf oder ein E-Mail des Kiston Success Managers, der einem fragt oder die einen fragt, äh wollen wir das permanent machen? Netop ship die Hardware das System wächst. Ganz unüblich für eine amerikanische Firma. Man kann nicht nur wachsen, man darf auch kleiner werden. Äh bei Kystone gibt es die Möglichkeit, genauso seine Subscriptions nach einer gewissen Laufzeit auch zu verkleinern, um einen gewissen Anteil. Sprich, man kann sowohl nach oben als nach unten als auch in der Cloud sind wir schon in fast alle Richtungen unterwegs. Äh, und das ist genau einer der Vorteile, den beispielsweise vor allem Servicepider sehr gerne nutzen möchten. Für einen Servicepider sind Sprungkosten, nämlich die Anschaffung am Anfang einer eines neuen Kundenprojektes. Immer eine große Herausforderung. die haben es viel lieber, dass sie dann Kosten oder dann Subscriptions zahlen dürfen und sollen, wenn ihre Kunden auch bei Ihnen die Rechnung bezahlen. Das bringen sie mit Kiston sehr schön äh kann man mit Kiston sehr schön realisieren. Wie gesagt, äh das Tooling und die Nutzungähnlich wie oder genauso wieman Ontab und Netupp Produkte bis jetzt auch nutzt.Bittte schön. Ich habe ein Beispiel aus der Praxis mitgebracht, dass ich sehr häufig sehe. Äh Keystone im Zuge eine Tech Refresh. Bei allen zufriedenen Nettopkunden, von denen wir sehr viele haben, äh stellt sich irgendwann die Frage, was mache ich mit meinen Systemen, die aus oder aus der Wartung laufen? Äh Kist und wäre womöglich eine Alternative.Und typischerweise, wenn ich einen Tech Refresh mache und es mein primäres System ist, werde ich das mit Allflash Technologie machen. Was besseres gibt es momentan nicht. äh Performance ist garantiert. Äh ichwerde ausreichend davon haben, was sich damit ergibt und äh nicht immer unbedingt notwendig ist, aber nicht alle Workloads benötigen Allash Technologie und das ist genau der Vorteil, den ich mit Keystone und mit einer Analyse des Bestandssystems herausbekomme. Äh wir haben wir unterstützen euch gerne bei der Analyse eures Systems. äh bekommen dann quasi heraus jetzt bitte äh wie sieht es denn auf euren Systemen aus und äh hat haben dann eine maßgeschneiderte Analyse auf Subscriptions heruntergebrochen, die einem quasi zeigt, wie viel meiner Daten befinden sich in welchen Subscriptions Bereich. Wenn man es jetzt an diesem Beispiel sich ansieht, alles was größer was größer gleich Performance ist, wäre äh All Flash Technologie. Alles was Standard oder Value ist, muss nicht All Flash sein. Und das ist genau der Vorteil bei Keystone. Äh bei Keystone bezahle ich dann auch nicht All Flash Preise, sondern Standard oder Value und dort, wo ich die Performance benötige, dort bezahle ich sie. Das wäre bei einem klassischen Techrefresh ein wenig äh schwieriger und auch bei Kyston versteckt sich die gleiche Hardware darunter. Also in dem Fall wäre es äh ein Allash System, dass wir euch zur Verfügung stellen. Wir würden mit Quality of Service entsprechende Analyse äh die Performance entsprechend anpassen. Das heißt, äh Kistum bittet dann die Möglichkeit, viel Möglichkeit, viel Möglichkeit, viel granularer und nicht auf Hardware runtergebrochen Workloads andie an die Subscriptions anzupassen. So, und im Vorfeld haben wir schon diskutiert, als Österreicher ist das für mich ein Marschall. Äh, es gibt auch andere äh Aussagen. Was soll dieses Slide sagen? Und diesenSlogan habe ich mir von einem Kollegen äh ausgeborgt. Im Endeffekt Keystone ist Ont und Storage Grit mit einem mit einer Schleife versehen, die einfach nur ein anderes Finanzierungsmodell darunter legt.Im Normalfall behält man Rut Rotreen. Die Systeme stehen bei euch. Die Systeme schauen genauso aus, blinken genauso schön. Äh, alles ist gleich, nur man bekommt eine monatliche oder jährliche Rechnung. Nach Ablauf der Subscription äh wird man gefragt, möchtest du es verlängern oder sollen wir es abholen? Es wird ein Termin ausgemacht, das System wird abgeholt oder wird refreshed? Wir kümmern uns um Hardware Refreshes, äh um Erweiterungen, umden Einhalt der zugesagten Performance. Also, man wird mit Keystone sehr viele Hardwareethemen los und kann sich dank Cloud Manager sehr schön auf das Managen der Subscriptions kümmern. Damit äh bin ich auch schon wieder mit ein wenig Zeit einholend äh mit meinem Thema fertig und würde an den Bennet zurückgeben. Dann tauschen wir einmal wieder. Vielen Dank Michi. Ja, also zusammenfassen kann man glaube ich gut sagen, wer von dem Tagfre steht, kommt auf uns zu, kommt auf den Michi zu und wir können uns das mal angucken, ob wir da eventuell ein Kiesermodell draus machen. Technisch, wie Michi das gesagt hat, gibt es da keinen Unterschied. Ähm, es ist eigentlich nur ein anderes Bezahlmodell, ähm, was sich so ein bisschen an die Cloud an annähert. Ähm, sprecht uns da wie gesagt gerne an, wenn da mehr Interesse dran besteht. Gut, dann machen wir einmal weiter. Nächstes Thema wieder einmal die Losfee. Vielen Dank. Und ich als Hamburger kenne es nur als Bier. Ähm, der Henrik werde es auch als anderes kennen. Wir machen mit dem Astra Data Store weiter. Henrik, the Stage ist yours. Danke dir. Ja, ähm das ist mehr als nur ein Bier. Bei Netup verbirgt sich ein bisschen was dahinter, nämlich ein ganzes Produkt vom Portfolio. Ähm, das ist das, was wir Astra nennen und dieses Portfolio hat jetzt einen neuen Bestandteil bekommen und das ist Astra Data Store. Ähm, vielleicht ganz kurz Überblick, was ist dieses Astra Portfolio? Das ist im Prinzip all das, was wir tun äh zu Storage, zu Datenmanagement im Umfeld von Containern und Kybernetes, ne? Ähm, das was wahrscheinlich viele von euch schon kennen, ist Astra Trident. Das ist das, was wir seit 6 Jahren inzwischen machen. Ähm, das ist erstmal so die Anbindung. Ja, im Prinzip der Treiber, der unsere Storage Lösung, egal ob jetzt Onpremis ist im Rechenzentrum oder in der Public Cloud, anbindet an so ein Kybernetis Cluster. Das heißt, mit Trident kann einen Entwickler oder einen Applikationsverantwortlicher dann selbständig ähm in gewissen Grenzen natürlich storage provisionieren, kann das snapshotten, kann das klonen, all diese Dinge, die er tun möchte. Ähm, das was dann dazu gekommen ist vor gut anderthalb Jahren ist Astra Control ähm um das Ganze jetzt in Richtung Applikation weiter zu entwickeln. Das heißt, wenn ich sage, ich möchte jetzt z.B. ein konsistentes Backup von der Applikation haben, von Applikationen und Daten, die dazu gehören, dann ist das was,ich mit AS Control machen kann. Oder ich möchte das Restoren, ich möchte das Migrieren, ich möchte auf Knopfdrück von Applikation und Daten in den Testklaster zu haben. Das sind alles so Dinge, die dann Astra Control bietet. Und das was jetzt neu reinkommt mit Astra Data Store ist eine weitere Option für den drunterliegenden Storage und zwar im On premises im Rechenzentrum ähm als Alternative zu einer klassischen Appliance mit typischerweise einem Ontap System, das dann da drauf läuft. Ähm nicht unbedingt als Ersatz davon, sondern es ist einfach ein etwas anderes Modell. Es ist Software defined. Das heißt, es zielt auf Umgebung ab, wo ich sag, ich möchte mein Storage incubnetis betreiben. Ich habe z.B.einen permetal Cluster mit Kybernetis und in diesem Cluster gibt's Server, die SSDs oder in NVME Discs haben z.B. und ich möchte diese Disk Kapazität jetzt nehmen und daraus wieder eine sinnvolle Storage Lösung bauen. Das ist das, was ein Astra Data Store ermöglichen würde. Also primär ein etwas anderes Betriebsmodell. Ja, die Frage ist, möchte ich eine externe Storage Appliance haben, die vielleicht neben Kübernetes auch noch andere Workloads bedient und typischerweise von so einem Storage Admin Team dann betrieben wird als Service für unter anderem Kybernetis oder möchte ich das ganze Software Define direkt in Kybernetis haben, was dann auch bedeutet, das wird von dem Kybernetis Team in der Regel betrieben. Das ist das, was dann Astra Data Store ermöglicht alsweitere Option. Wenn wir so ein bisschen drauf kommen, was ist Astra Data Store mal so der Versuch das in einen Satz zu packen? Distributed parallel F system that delivers scalable and shared final block data services native to clustered enterprise data management capabilities. Das ist so ein Brecher jetzt. Das heißt, ich pflück das mal ein bisschen auseinander. Distributed parallel F system heißt Astra Dataastore läuft verteilt über die Knoten in dem Kübenester. Das heißt, es skalt auch mit dem Plaster mit. Wir nutzen wirklich diese Skalierfähigkeit, die äh Kübernetis uns an der bietet. Ähm das kommt hier noch mal Scalable. Ja, und dann Share File und Block Data Services. Das ist das, was Aster Data Store am Ende anbietet. Zum einen Share File, also mit NFS z.B. als Protokoll, was für viele Applikationen in so einem Küfeld die passende Lösung ist und das wollen wir nativ mit anbieten und dann aber eben auch Block Data Services. Es gibt einfach Applikationen, die haben lieber einen Blog Storage, ne? Und wie ihr das von der Netup kennt, das ist ein Unif Storage. Das gilt auch für Astra Data Store. Wir machen Sharefil, wir machen Blogdatenservices.Beides kann das Astra Data Store. Native to Cubnetis Cluster. Das heißt, das ganze läuft wirklich in Kybernetes. Das ist komplett in Software und komplett in Containern. Ja, da gibt's nichts, was irgendwie außerhalb ist. Da gibt's keine externe Appliance oder irgendwas, sondern alles ist kontainerisiert, alles läuft in dem City Clusterund dann Rich Enterprise Data Management Capabilities ist das wieder, was er von der Netup kennt. Ja, es wäre keine Netup Lösung, wenn es nicht einfach sehr mächtig wä in dem, was es dann auch kann. Ähm und gleichzeitig halt auch schon sehr ausgereift und das ist das, was wir machen können, weil wir jetzt nicht alles von Grund auf neu entwickeln müssen. Also vieles ist neu, einfach, weil es verteilt im Knetisk Cluster läuft. Aber z.B. NFS Server haben wir extrem guten Code für den können wir wieder verwenden. Ja. Ähm Komprimierung, Deduplizierung, da haben wir extrem guten ausgereiften Code für, den können wir hier wieder verwenden. Replikation von Daten, dafür haben wir extrem ausgereiften Code, den können wir hier wieder verwenden. Das heißt, wir müssen nicht alles von Grund auf neu entwickeln, sondern wir können viele Bestandteile auch übernehmen, z.B. auch so in dem Montapsystem. Und damit haben wir vom Start weg sehr mächtig und sehr robuste Lösungen indem Astra Data Store.Das ist so ein bisschen das, was es ist. Ähm ich find's immer auch wichtig zu verstehen, was ist es denn nicht, ne? Ähm deswegen ganz kurz auch, was ist Asad etast nicht? Und das Wichtigste an der Stelle, glaube ich, es ist kein generelles storages, also es ist jetzt nichts, auf dem ihr falsches treibt oder ein Shana betreibt oder sowas, sondern es ist wirklich zugeschnitten auf diesen Einsatzzweckynetis.Ähm und das unterscheidet dann auch von z.B. einem Ontap Select, was jetzt auch erstmal eine Software Defined Variante von Storage ist, ähm aber eben eher diesen generellen Ansatz hat. Ja, darauf kann ich ganz viele unterschiedliche Workplots abreden und genauso ist es eben kein Ersatz jetzt für einen Ontap, für eine AFF, äh für einen Solidfire, für eine E-Series. Nein, es ist eine neue Lösung speziell für diesen Einsatzbereich Kypernetis und Software Defined in Kybernetis. Und um das so ein bisschen vielleicht noch mal klar zu machen, so gewisse Gegenüberstellung Astra Data Store versus einem Ontap. Hier in der ersten Spalte der Formfaktor, das ist so das Offensichtliche Aster Data Store gesagt ist Software defined. Es läuft in Containern in Kybernetis während Ontap grundsätzlich erstmal ein Appliance basiertes Modell ist dass ihr dann nehmt um damit so ein Storage Service anzubieten. Ja. Ähm und das kann dann den Service z.B. an knetesam sein. Ja, aber es ist erstmal eine externe Appliance, die von dem externen Team betrieben wird. Typischerweise in der nächsten Spalterapplikation, ich habe es gesagt, Astra Detastore fokussiert sich primär auf Kybernetis. Das erweitert sich so ein bisschen in Richtung virtuelle Maschinen. Astraad Dataastore kann auch WWS bereitstellen in der VMWgebung. das Ziel so auf den Bereich hab, wo ich vielleicht Workloads habe, die noch nicht komplett umgestellt sind auf Kypnetis und um so diese Zwischenzeit so ein bisschen abzupuffern, wo ich sag, ich habe ein Teil jetzt noch in VMs, kann er dann eben auch wie mit bereitstellen. Ja. Ähm, aber der primäre Fokus ist eigentlich alles rund um Kybernetis, während einen Ontab eben diese komplette Bandbreite abbildet. Ja, also das kann ein Kübernetis sein, ja, ähm als ein Workload, der da drauf läuft. Ähm, es kann VMW sein, das können traditionelle Applikationen sein, Filervices sein, ähm all das, was ich irgendwie habe. Das Ontap ist einfach so diegroße Plattform, auf der ich unterschiedlichste Workblots gesammelt anbieten kann. Und das spiegelt sich dann in den Uscases wieder die hellblaue Spalte hier Aster Data Store Cloud Native, also alles was so in Richtung Microservices entwickelt ist und am Ende auf so einer Container Svice Plattform läuft, die ich dann im Data Center betreibe. Während eben diese Mixed Workloads adressiert, dafür ist es gebaut, das kann es extrem gut. Ähm, prinzip alles von Backup und Archiv bis hin zu High Performance. Ähm und alles was irgendwie dazwischen liegt, das ist das was in Onte P abdeckt. Und in den Zielpersonen eben auch Astra Dataastore zielt sehr stark auf diese Knetis ähm Gruppe, egal was für ein Titel die dann am Ende tragen, ob das jetzt ein DEFOPS Architekt ist oder ein DEFOs Engineer oder so ein Side Reliability Engineer, aber Zielgruppe dafür sind eigentlich diejenigen, die Kybernetis betreiben, während jetzt Ontap eher die Zielgruppe anspricht, äh IT-Betrieb, ja, IT Infrastrukturbetrieb und das ist so das, was wir mit Astra Dataastore abdecken, dass wir einfach eine Lösung bieten auch für diesen Bereich, wo ich sage, Ich möchte das Ganze jetzt in Kybernetis tun und ansprechen eigentlich eher eine etwas andere Zielgruppe, die Zielgruppe, die das Knetis betreibt, die damit jetzt nicht zu Storage Admins werden sollen, ja, sondern das Ganze ist möglichst einfach gehalten, weil wir eben diesen Einsatzzwecken. Ja, wir können viel automatisieren, weil wir wissen, was daralf laufen wird. Es ist Kübernetis, ja. Ähm und nichts anderes. Wir müssen ganzviele Einstellungsmöglichkeiten z.B. gar nicht anbieten, weil wir schon wissen, der Einsatzzweck ist Kybernetis und damit muss es so aussehen und damit können wir das möglichst einfach halten, so dass das Ganze dann auch ähm betreibbar ist von jemandem, der eigentlich eher Kubinetis Betrieb macht. Ähm, das heißt, Astra Data Store ist jetzt nichts, wo ich wahnsinnig viel Hand anlegen muss, sondern es ist weitgehend durchautiert. Aber das mal so alsÜberblick zur Astra Data Store. Wenn das für euch von Interesse ist, kommt gerne auf eure Ansprechpartner zu. Wir können da mehr drüber zeigen, erzählen. Ihr könnt das auch gerne ausprobieren. Das ist im Moment noch in dem Early Access Programm. Ähm das wird sich dann im Laufe des Jahres ändern, dass es nicht GA geht. Aber wenn ihr das ausprobieren wollt, ist heute schon möglich. Und damit würde ich zurückgeben ins Funkhaus München.Ja, danke Henrik. Ähm, zwei Fragen sind aufgetaucht. Äh, eine ist eine Frage, die wir sehr oft aus dem Feld hören, die es nicht hier gestellt wurde, aber die man glaube ich mal gut kurz erklären kann. Was haben wir denn als Storage Company mit Kubannetis zu tun? Das ist ja eigentlichdoch gar nicht unser Berit, oder? doch ähschon, weil es eigentlich sehr stark ergänzt, was wir ansonsten ja auch tun und seit vielen Jahren schon tun, nämlich dieser Fokus auf diese Hybrid Cloud Modelle. Wir haben es gerade von Michael auch schon kurz gehört. Ähm das heißt, ein Teil meiner Workloads läuft im Data Center, ein Teil läuft vielleicht in der Public Cloud. Ähm, wir spannen diese Data Fabric dazwischen, diese Möglichkeit Storage Datenmanagement überall in all diesen Bereichen zu kriegen und Kübernet ist es eigentlich auf der Applikationsseite die ideale Ergänzung dafür. Also das, was wir mit Daten machen mit der Data Fabric tut KNET ist eigentlich mit der Applikation. Ich kann meine Applikation überall laufen lassen, überall deployen, ohne dass ich da jetzt großartig was anpassen muss, ne? Von daher das ist so für uns der Fokus, wo wir sagen, Kybernetis ist eigentlich so das ideale Applikationsgegenstück zu dem, was wir mit den Daten tun. Perfekt. Und dann eine Frage, die aber tatsächlich jetzt aus der Runde kam, die wir noch ganz kurz live beantworten können, weil die Zeit haben wir. Äh löst jetzt das Astra das Trident ab oder wie gehört das zusammen? Weil das gibt es ja auch noch meine überhaupt nicht und ich springe vielleicht gerade noch mal ganz kurz hierhin. Ähm, also am Ende ist Astra Dator eine weitere Option, wie ich den Storage bereitstelle neben einem klassischen Modell. Ich habe eine Ontap Appliance, ja, ich habe meine A F z.B. dort im Rechenzentrum stehen. Ich habe oben drüber immer das Trident, ja? Das heißtTrident ist immer die Ebene, die das Ganze einbindet in mein Kubynetis. Ähm und auf der Ebene ist es dann schon wieder fast egal, ob das jetzt ein Astra Data Store ist oder eine Ontap Appliance oder irgendwas in der Public Cloud. Ähm das ist schon so diese Gleichmacherbene und ich habe natürlich dann oben drüber Astra Control, wenn ich jetzt sage, ich möchte das Ganze auch noch applikationskonsistent tun. Sehr cool. Auch hier an der Stelle sei wieder erwähnt. Chris zeigt das gerade an. Ich muss da oben hinzeigen. Ähm in unserem Hands onlab ist auch etwas äh enthalten, was die ganzen Astra Komponenten enthält. Äh deswegen wer das gerne mal ausprobieren möchte ähm in dem Lab, was man sich nicht selber aufsetzen muss, sondern was wir denn provisionierend bereitstellen, auch da gerne auf das Hands onlab gehen. Ansonsten auch gerne kommt auf uns zu, kommt auf euren Ansprechpartner zu, kommt auf Hendrik zu. Wir können ja gerne helfen, wenn es da Fragen gibt oder wenn es da umgeht, das Ganze zu implementieren, das auszuprobieren. Henrik hat ja erwähnt, es ist in dem Early Access Programm. Auch da gerne die Hand hebben, wenn man daran partizipieren möchte. Apropos partizipieren, wir haben noch zwei lose in der Glückssalatbox, wie wir sie ja [gelächter] nennen. Ja. Ähm, ein etwas klassischeres Thema. Äh, ich würde an den Marco übergeben und der Marco wird uns etwas über Storage Gritzen. Was das überhaupt ist, glaube ich gesehen, hat er uns mitgebracht und vor allen Dingen auch was in der neuen Version 11.6 bei Storage Grit alles neu verfügbar ist. In dem Sinne, Marco, The Stage is yours. Und damit werde ich mich wieder ins Publikum setzen. Bis gleich.Ich glaub, man hört Marco nicht, ne? Marco hört man hört dich nicht. Mhm. Mach ich mal an. Ja, wir haben ein kleines technisches Problem. Äh, der nicht nur ihr hört Marco nicht, sondern auch wir hören Marco nicht. Deswegen ähm würden wir das letzte Thema einmal vorziehen und das letzte Thema, was wir haben, das ist das Ontap Thema. Ähm machen wir erstmal den Gegencheck. Patrick, hört man dich? Das will ich hoffen. Das klingt sehr gut. Dann würden wir dich einmal ganz kurz nach vorne ziehen. Ähm Patrick hat uns ein bisschen was mitgebracht zum Thema Ontap 911 und neue Hardware und ja, erzähl uns noch mal im groben Überfluss. Wir haben uns ja auch noch mal gestern und letzte Woche kurz unterhalten. Es ist ja extremst viel mit Ontap 911 in Neues gekommen, aber so ein Best off hast du uns mitgebracht. Was ist denn das Best off, was du uns hier mitgebracht hast? Was sind denn wirklich so die coolen Sachen, die mit Onte 911 neu hinzugekommen sind und vor allen Dingen, was haben wir denn für neue Hardware überhaupt am Start? Genau, das wird jetzt auf den kommenden Slides einmal gezeigt werden. Ähm, eine grobe Übersicht grobe Übersicht grobe Übersicht sind die Themen eben Sicherheit ist auch für 91 wieder ein hohes Thema. Natürlich Performance Steigerung. Wir wollen das Ganze weiterhin flexibel halten und auch noch flexibler machen und ja, integrierte Datensicherung, ich denke, kennt jeder von euch, benutzt jeder von euch hoffentlich auch und auch da hat sich wieder einiges getan. Und zum Ende der des Ont Überblicks gibt es dann auch noch einmal ein kleines Update zu den West API und auch noch zu den F systemAnalytics. Bereich Security und Compliance gehe ich jetzt nur auf die Multiadment Verification ein und die autonomous ransomware Protection. Mir ist bewusst, dass wir da einige Themen mehr haben und es sind teilweise ja Randthemen, kleinere Themen wie, dass wir TLS13 unterstützen und so weiter, die für den einzelnen sehr interessant sein können, aber ich gehe jetzt trotzdem nur auf die wirklich großen Neuerungen ein. Ähm, die Multiadmin Verification bedeutet, dass ein Befehl, der z.B. ein Volume löschen könnte, ein Snapshot löschen könnte, abgesetzt werden kann von einem Administrator. Wenn eine entsprechende Regel besteht, wird dieser Befehl aber nicht direkt ausgeführt, sondern geht in eine Approval Queue. Das heißt, ein weiterer autorisierter Admin muss diesen Befehl bestätigen, mindestens einer. Das können auch mehr sein, je nachdem, wie es konfiguriert ist.Nachdem das Approval gegeben wurde, darf dann der ursprüngliche Befehl erst ausgeführt werden. Das heißt, da bieten wir quasi ja sehr effizienten Schutz dagegen, dass Volumes gelöscht werden, Snapshots gelöscht werden etc. gerade im Bezug auf Ransomware ist das Multiadmin Verification ist ein sehrja gutes Thema, das auch lange Zeit schon gewünscht wurde von vielen Seiten. Ähm im Kontext Ransomware haben wir natürlich auch die Autonomus Rensomware Protection noch mal verbessert. Das bedeutet, wir haben ähm mehr ja mehr äh Muster, die wir finden können. Das heißt, ähm eine hohe Entropie an Schreibzugriffen sorgt jetzt auch dafür, dass sie ähm das ALP eben ein Snapshot auslöst, wenn dann ein verdächtiges ähm Verhalten gefunden wird. Das gleiche gilt auch dafür, wenn auf einem Volume auf einmal komische Dateiendungen auftauchen sollten, die vorher noch nie da waren. Auch dann reagiert eben die autonomous Ransomware Protection. Axel hat es im Vorfeld schon erwähnt. Wir haben eine Integration an dieser Stelle dann auch mit Cloud Secure s, dass da auch dann ein bisschen mehr Transparenz auch Richtung Cloud dann ist. An der Stelle für die Highperformance Workloads gibt esein paar Neuerungen, die ja erst einmal vielleicht nicht so spannend aussehen, aber das Leben einfacher machen können durchaus, weil wir können mittlerweile dann endlich ähm NVME Nampaces zu Loons hin und her schalten. Das heißt, es muss nur entweder der Namespace oder die Loun, je nachdem aus welche Richtung ihr kommt, wird offline genommen, wird umgeschaltet im Modus, wird wieder online genommen und dann kann es eben weitergehen, ohne dass Daten bewegt werden müssen. Das ist natürlich gerade dann spannend, wenn man ähm z.B. für einen WMW Datenspeicher umstellen möchte von der klassischen Lun auf NDME oder ähnliches oder für große Datenbanken und so weiter, wo eben sonst Mengen an Daten bewegt werden müssten. Genau.Ein Feature, das ich besonders schön finde, dass ich weiß nicht, ob es für euch auch alle so spannend ist und ihr auch diese ja imfekt diese Anforderung häufiger habt. Ähm große Mengen, die gelöscht werden müssen. Das ist auf ja auf keinem Nassystem etwas schönes, weil wir immer sehrviele Transaktionen haben. Ja, rekursiv wird durch die Verzeichnisäume gegangen. Es werden einzelne Dateien gelöscht, Verzeichnisse gelöscht. Wir haben sehr,viele Metadatenkommando, sehr,viel im Endeffekt unnötige CPU last und das können wir auf Ont mittlerweile dann mit der neuen F1 elegant lösen, indem ähm der zulöschende Ordner in einen Papierkorb äh verschoben wird. Das heißt, aus Protokollsicht, es wird nur dieses eine dieser eine Ordner verschoben und im Hintergrund löscht ontab dann eben dieDaten, die darin enthalten sind. Das heißt, wir haben da ein ja im Endeffekt ein äh deutlich weniger Overhead vom Client ausgesehen. Das Ganze läuft natürlich auch deutlich schneller im Bereich Deployment Flexibility. Also was ermöglichen wir alles mit Ontap, was machen wir einfacher? Da wurde auch schon drauf eingegangen, ähm, dass wir Daten gerne bewegen. Und auch gerade in demähm in dem Kontext von Hybriden Umgebung ist es natürlich sinnvoll, wenn da auch weitere Features bekommt und auch entsprechendmehr Features bieten kann. Wir haben im Bereich S3 die Versionierung eingeführt, sodass jetzt eben ähm nicht mehr nur eine Version eines Objektes vorgehalten wird, sondern wenn es gelöscht wird, überschrieben wird oder ähnliches und die Versionierung eingeschaltet ist, dann haben wir tatsächlich auch mehrere Versionen eines Objektes. Ähm, es wurd schon erwähnt in, ich meine, es war auch wieder der Axel, der es erwähnt hatte, dass wir S3 jetzt auch ähm in CO auf äh unterstützen, auf ABS z.B.und auch in FSX wird es jetzt unterstützt.Ähm, die S3 API on, das ist, denke ich, auch bekannt. Die sind nicht komplett vollständig implementiert. Wir haben in diesem Release aber auch wieder einige neue Befehle implementiert. Das heißt, wenn irgendwo ähm ja, das unterbess ein Thema wird, dann unterstützen wir gern dabei, ob es sinnvoll ist für diesen US Case auf Unterbest 3 zu gehen oder ob nicht vielleicht doch ein Storage Bird an der Stelle sinnvoller ist. Data Mobility für SWMs ähm finde ich ist ein sehrspannendes Thema. Damit erlauben wir Nasorlouds im laufenden Betrieb zu verschieben. Das heißt, hat man gerade auf der Animation gesehen, Klaster A nach Klaster B. Es wurde einfach nur rübergeschoben und das ist dann auch genau wie dieses Produkt funktioniert. Ähm, wir können es benutzen, um Workloads ja auszugleichen. Das heißt, viele SWM mit hoher Last sind zufälligerweise auf dem gleichen Kluster gelandet und eine andere hat eben wenig zu tun. Das heißt, wir können die SWM runterschieben, TEAG Refresh, wenn neue HA Paare ähm in Betrieb genommen werden müssen oder ähnliches eben als Alternative zu SWMDA, was für solche Migrationen gern genutzt wurde oder wird.Ähm ganz wichtig an dieser Stelle, Migrade NAS Workloads steht auf dem Slide. Es ist aktuell beschränkt auf NFS Workloads und ähm dazu gibt es noch Einschränkung, dass wir das Ganze nur auf einer AFF unterstützen und auch nur im lokalen Datacenter. Ja, also das ist jetzt nicht etwas äh was z.B. für die Migration Richtung Azure oder ähnliches genutzt werden könnte. Genau. Das ähm die Verteilung der Volumes im Ziel, je nachdem wie groß die Svm ist, wiewichtig die SWM vielleicht auch ist, die verschieben w verschoben werden soll, kann es wichtig sein, dass die Volumes an bestimmten Orten landen. Auch das kann jetzt über Rest API gesteuert werden und ähm und ähm und ähm extendes Key Management wird unterstützt. Das heißt, wenn in der SVM selbst ähm Net Volume Encryption betrieben wird und die SWM verschoben wird, dann kann auch das komplett erhalten bleiben. Ähm Thema Data Protection, da gab es einige Neuerungen mal wieder. Snaplock für die Flexgroup ist verfügbar mit 911. Ähm Hintergrund für Snaplock ist, dass wir Daten unveränderbar und vor allen auch unlöschbar machen möchten mit entsprechenden Regelwerken. Ähm das Logical Airgap ist auch auf diesem Slide mal wieder angesprochen, weil es eben ja im Endeffekt der komplette Hintergrund für Snaplock ist. Wir möchten also Daten wirklich in einer Form absichern, dass sie wieder geändert noch gelöscht werden können und bieten jetzt eben mit der Unterstützung für Flex Grc Groups auch eine große Skalierbarkeit ähm mit der wir die ja die Größe eines einzelnen Volumes, also die maximal 100 TB, die können wir damit sprengen, ja, können damit können damit können damit fast unendlich große Volumes erstellen. Gibt natürlich immer physikalische Limits. Ähm ganz wichtig an dieser Stelle steht in der Fußnote, aktuell ist es noch nicht möglich, dass wirähm die Retention verlängern für ein bereits ähm gelocktes Objekt und es ist noch nicht möglich Lockwolt zu benutzen. Ja, also Lockwolt wäre in diesem Fall das Replizieren eines Snapshots von einer Flexgroup auf eine Snaplock Flexgroup, um das Ganze dann eben ja als ein sehr sicheres Backup abzulegen. Das ist aktuell mit Flex Volz nur möglich. Genau. Ähm, du Patrick, ja, kurzeFrage, diejetztreingekommen ist, ähm Thema ja, Flex Wolz, auch wenn es gerade so ein bisschen nicht in das Data Protection Thema passt, aber Flex Wolz und Flex Groupsähm sagen wir ja schon seit einiger Zeit, dass wir uns da ja einer Feature Parität nähren. Ähm, das ist ja jetzt einweiterer Schritt, wie sich ja denn die Flexgroup dem Flexwoll annähert. Gibt es da schon so ein bisschen Ausblick, wann da wirklich eine Feature Parität kommt oder ist es etwas, was doch noch in etwas weitererZukunft ist? Zukunft ist? Das ist eine sehrgute Frage. Also, wir wie du gerade schon gesehen hast, wir näheren uns definitiv. Also, es werden immer mehr ähm immer mehr Features eben auch auf der Flex Group ähm unterstützt und es ist definitiv das Ziel, dass es gleichwertig wird. Äh einen präzisen Zeitraum kann ich dir dazu leider noch nicht sagen. Also, das ist dann, denke ich, etwas, wo wir die nächsten die nächsten die nächsten ähm Netup Compacts dann durchaus noch das eine oder andere Mal drüber sprechen werden über neue Features, die inFlexgroup reingewandert sind. J. Alles klar. Danke dir. Dann ist das doch auch zumindestens etwas, was wir weiter auf dem Radar haben sollten. Und vielleicht kann man da ja mal wirklich eine kompakt drüber machen. Wirklich mal so ein Vergleich zwischen eben der Flexwolle und der Flex Group. Ähm was da der Unterschied ist oder was dann auch der hin Hindernisgrund oder dass das Hemmnis ist, nicht auf eine Flexgrup zu gehen, aber äh das wird glaub ich jetzt hier den Rahmen sprengen. Äh war aber nur eine Frage, diereingekommen ist, aber dann können wir ja weitermachen. SMS lese ich jetzt hier. Genau. SMS, also Syn Mirror Synchronus, Snap Mirror Synchronus, so rum. Ja, da geht's einmal um die synchrone Replikation zwischen zwei Ontapllern. In diesem Fall da gab es ein paar Neuerungen für den Bereich Performance. Das heißt gerade für der erste Punkt auf dem Slide ist der neue Replikationsmodus, der erwähnt wird. ähm Sequential Split Mode. Beim Sequential Split Mode geht es ähm vor allem um die Steigerung ähm der Performance bei NASWloads. Das heißt, wir haben das Verhalten an der Stelle dann ein wenig angepasst, um eben bei sehr großen Nummern, also bei sehr,großen Dateianzahlen und bei sehrviel Metadatenlast eben effizienter das Ganze dann zu spiegeln, um da eben eine bessere Performance zu gewährleisten. Ist auch ein Modus, der explizit für NAS Workloads gedacht ist. Also nicht gerade dafür, dass ähm dass da eine Lund drauf liegt oder ähm es geht halt auch wie gesagt um kleine Dateien, also wenn das NASWAD ist, aber es sind nur VMWware ähm Discs, dann ist das eben auch nicht unbedingt der richtige Modus. Genau. Ähm Genau. Ähm Genau. Ähm und ganzwichtig, wir haben die Anzahl der möglichen der möglichen äh Relationships, also der möglichen Beziehung für das Replizieren, haben wir mittlerweile auch 400 pro HA Pa hochgesetzt. Das heißt auch da ist on mal wieder ja wie quasi immer, es werden Limits erhöht, es wird Performance verbessert und so weiter. Also dieser dies kontinuierliche Verbessern, das wo dann teilweise ein Update des Betriebssystems schon dafür sorgt, dass man sich keine Gedanken mehr um die Performance machen da muss. Snapmir Business Continuity. Das ist jetzt ein sehr überladenes Slide, aber ich hatte die Erwartung, dass es knapp werden könnte mit den ganzen Speakern heute. Ähm heute. Ähm heute. Ähm da haben wir sehr,viele neue Features, die auch sehr sinnvoll sind und die denke ich ja vonvielen von euch auch erwartet wurden. Wir können Snap Restore direkt auf einer Snapmror Business Continuity Source ausführen. Das heißt, wir können z.B. eine Lun komplett wiederherstellen aus einem Snapshot und müssen da nicht irgendwelche Umwege gehen, sondern können das in Place auf der Quelle dann die direkt durchführen. Ansonsten auch hier wurden wieder Limits erhöht, mittlerweile 50 Consistency Groups. Die 400 replizierten Volumes sind rein zufällig die gleichen wie bei dem Snapmor synchronus auf dem vorherigen Slide. Genau. Die Genau. Die Möglichkeit der Möglichkeit der Möglichkeit derData Protection wurde auch wieder verbessert. Wir haben nicht nur synchrone Replikation mit Filover, die jetzt möglich ist, sondern können auch noch einen asynchronen Snapmor auf ein drittes Ziel, also auf ein genau auf einen dritten Spiegel dann eben umleiten, um da dann eben auch noch wieder das storage basierte Backup, was ja, was wir im Endeffekt alle kennen mögen und wie gesagt hoffentlich auch benutzen, dann eben auch in diesem Kontext haben. Performance, das Wort habe ich glaube ich jetzt sehrhäufig gesagt, äh wurde auch in diesem Kontext wieder verbessert. Das heißt, IO ähm wird wiederhergestellt nach knapp 30 Sekunden bei 20 Consistency Groups und 200 Volumes. Das ist, denke ich, ein sehrguter Wert, der für die meisten Umgebung ausreichen sollte. undein Betriebssystem, das ähm ja doch irgendwie häufiger auftaucht, gerade wenn es im Sahnbereich dann mal nicht ganz so einfach ist. Da sind wir dann bei AEX auch. AEX wird jetzt von Snapmor Business Continuity supported. Das dürfte auch einige freulich stehen. Okay,dann geht's jetzt einmal schnell über die SVMDR ähm Verbesserung. Ähm ein Punkt, den viele vielleicht gar nicht so richtig mitbekommen haben. SVMDR mit Metroklaster. Wir unterstützen jetzt Replikation von beiden Seiten des Metroklusters in eine dritte Seite. Das wurde vorher zwar auch schon gemacht, war aber nie so richtig supported. Ansonsten auch hier Limits wurden erhöht und ähm ein extrem nettes Feature ist der Quick Reync. Ähm, wer es mal ausprobieren durfte, ein SVMDR umzuschalten und relativ zeit mal wieder zurückzuschalten, da konnten dann schon mal 3 4 5 Stunden vergehen, bis das Ganze dann wie wirklich spiegeln konnte. Ähm, wir haben mit dem Quick Resyn die Möglichkeit, die Deduplizierung und überhaupt storche Effizienz abzuschalten temporär. Dadurch lässt sich dann wieder das Neuaufbauen oder das Zurückspiegeln der Daten sehrschnell ähm durchführen und wir können sehrschnell wieder zurückscheiben. Genau. E of, damit bin ich dann auch schon quasi durch. Ähm, es gibt neue Rest API. Auch da sind wir wieder an der Feature Vollständigkeit, wie es immer so schön heißt. Das heißt, mittlerweile können wir HA und MTC ähm komplett bedienen über die Rest API. Es gab zusätzliche Unterstützung, um Ziv Sessions fernzusteuern. Es gab Verbesserung im Bereich Snapshots und so weiter, aber das ist nichts, was jetzt alles einzeln durchgehen sollten. Und als letztes im Bereich der Usability sind die File System Analytics. Ähm, da ist es jetzt möglich pro SVM, das heißt in der Multitendency Umgebung, kann eben jeder auf seine eigenen Dateien schauen und wer und sehen, wer ist denn der Toptalker? Ähm und es gibt auch die Möglichkeit pro SVM auch wieder spannend für Multitendency Umgebung ähm Performance Daten zu exportieren. So, ich vermute mal, die neue Hardware kommt dann auch noch direkt danach, ohne dass es jetzt Richtung Jo,genau.Ohne, dass es jetzt da einmal rüber geht. Neue Hardware geht auch ganz schnell. Ist nicht ganz so viel in diesem Fall. Es gibt eine Phase 9500, wird unterstützt mit aktuellem Ont ca. 50% mehr Performance im Vergleich zu Phase 9000. Es gibt mehr, ja, im Endeffekt wie immer mehr Kerne, mehr Speicher und mehr MVRAM zum Vorgänger. Unterstützt werden alle 6 und 12 Gigabit Shelves, die wir in der letzten Zeit verkauft haben. Und für die Phase 9000 gibt es das Ganze auch als Nonisruptive in Chassi Upgrade. Das heißt, wir können da einfach mit einer bestimmten Prozedur die Controller austauschen.IO Optionen gibt es ein paar neue. Wie gesagt, es gibt neues IO Modul für NVRAM. Es gibt eine neue 100 G Karte und es gibt eine neue Quad 25 G Karte. Und ich hoffe, das war dann jetzt schnell genug und damit zurück zu Bennet. Ja, perfekt. Ähm was uns ein bisschen wundert, sind recht wenig Fragen irgendwie aufgetaucht. Also entweder spricht das jetzt für den Speaker oder gegen den Speaker. Ich hoffe mal, er spricht jetzt er für den Speaker. Ähm in die Runde, wenn noch Fragen sind. Äh, wir sind jetzt auch noch im Nachgang oder der Patrick gerade wenn es immer das Ontap Thema geht ähm ist noch mit hier in der Runde vertreten und werd eure Fragen beantworten. Deswegen haut in die Tasten, wenn ihr Fragen habt. Immer her damit. Jetzt ist die Chance, das Ganze loszuwerden. Und wir würden, bevor wir denn in die Q&A Session überleiten, das leichte Soundtest Hüsteln hatte schon angekündigt, Marco, man müsste dich jetzt hören. jetzt hören. jetzt hören. Ja, das hoffe ich mal. Nach leichten technischen Problemen hört man mich. Ich könnte jetzt nein sagen, aber dann wäre das gelogen. Nein, sieht alles gut aus. Storage Grit Chris, magst einmal auf die SL kurz springen und dann ja würde ich sagen, Marco, kannst du hier heute die Runde einmal dicht machen? Was hast du uns denn bei Storage Grit mitgebracht? Sind da auch so coole neue Funktionen wie ein Ontab und hast du auch neue Hardware mitgebracht undwir sind gespannt.Ja.danke dir, Benet. Ähm ja, auf der Hardware Seite muss ich leider enttäuschen. Äh im Screate Umfeld gab es jetzt bei dieser Runde bei der Version 116 keine neuen Features oder keine neuen neue Hardware. Ähm aber das ist ja auch waswo man dann auf die Zukunft vielleicht blicken kann oder sich freuen kann. Ähm 6. In der Tat haben wir ein paar interessante Features. Vielleicht für alle, die, sage ich mal, sich nicht so im oder die mit STD vielleicht noch nicht so viel Berührungspunkte hatten. Ähm Storage Grid ist dedizierter Object Storage von Netup. Ähm, es ist Enterprise ready, lässt sich sehr flexibel und einfach äh installieren und auch äh bei der Installation oder bei dem Deployment ist es bietet sehr flexible Möglichkeiten. flexible Möglichkeiten. flexible Möglichkeiten. Es bietet Single Namespace, der dann auch georedundant und Standortübergreifend aufgebaut werden kann. Also ein Benutzer kann in New York ein Objekt in der Storage wird hochladen und ein User mit den äh entsprechenden Berechtigungen kann es in Tokyo auch wieder äh lesen. Also ein Single Namespace.Äh was Deutsch eigentlich so cool macht, sind diese recht richtlinien basierten Policies, um äh zu sagen, wie Objekte abgelegt werden sollen. Anhand von z.B. Objektmetadatenkann ich sagen, wie lange ein Objekt aufbewahrt werden soll, wie es gespeichert werden soll und es lässt sich dynamisch auch ändern im laufenden Betrieb und das Ganze natürlich als robustes, hochverfügbares System und es spielt auch mit, sage ich mal, Cloud Integration natürlich auch in dieser Data Fabric ähm Story für uns natürlich eine wichtige Rolle, wie wir halt mit Tiering auch schon gesehen haben. Ähm, die nächste Slide überspringe ich jetzt einfach mal und gehe direkt auf, ja,auf das nächste. Mit 116 haben wir also ein paar coole neue Features bekommen. Ähm, das erste ist, na ja, eine Erweiterung zu dem, was wir in 116 in 115 gemacht haben mit Object Loog. Ähm, da das ist mit L5 gekommen. Mit F6 haben wir da äh die Möglichkeit gegeben, dass man auf einen Bucket eine Default Retention Zeit setzen kann. Äh Object Log funktioniert dann noch mal so, dass ein ich ein Objekt hochlade von einem Client oder einer Applikation und an dieses Objekt heftte ich eine Aufbewahrungszeit.Ähm, für Applikationen, die das nicht können, also die diesen diese Retention Zeit nicht setzen können, ähm gibt's in F6 Sets die Möglichkeit, dass man auf dem Bucket die Retention Zeit, eine Default Retention Zeit festsetzt und damit alle Objekte, die man in diesen Bucket reinschreibt, diese Retention Zeit gesetzt bekommen haben. Ähm ist also für eine einige Applikationen, dieObject Log jetzt noch nicht so ganz unterstützen, äh sehr wichtig. Äh zusätzlich, was wir dazu bekommen haben, ist, dass man beschränken kann, ähm wie diese Aufbewahrungszeiten denn von der Applikation gesetzt werden oder welche äh Aufbewahrungszeiten die Applikation setzen darf. äh ist für einige Kunden halt wichtig, dass nicht eine Applikation oder ein Benutzer sagt, okay, ich lege jetzt hier mein Objekt ab mit 100 Jahren Retention Zeit und das kann ich limitieren, was da möglich ist über diese minimale und maximale Aufbewahrungszeit, die ich in den Bucket Policies setzen kann. Dann ein spannendes Thema, was ich finde ist hauptsächlich für den Analytics Bereich interessant, ist die Unterstützung von S3 Select. Äh S3 Select ist entwickelt von Amazon und wir unterstützen es jetzt mit Storage Quid auch. Ähm und was es dabei geht, ist hauptsächlich die Entlastung des Clients und des Netzwerks, indem ich ähm den Objektinhaltfiltern kann mit SQL Statements. Also, man kann sich vorstellen im Analytics Bereich, ich habe äh eine große CSV Datei, Gigabyte groß und ich brauche aber nur bestimmte Records, bestimmte Einträge aus dieser CSV Datei. Und wie ich das klassisch machen würde, ist ich lade die komplette Datei auf meinen Client, lasse dann Filter dann mir die Daten raus, die ich brauche und S3 Select kann das übernehmen und das Auslagern, dieses Filtern auslagern auf den Storage, also auf das Storage Grid. Ähm was wir da unterstützen sind im Moment CSV Dateien. Ähm, zukünftig schauen wir aber, dass wir da Parität auch mit AWS bekommen, die noch Jason und Parquil über äh auch unterstützen. Wie gesagt, der Vorteil ist, ich habe weniger Netzwerklast, weil ich nicht das komplette Objekt übertragen muss und ich habe auf meinem Client oder auf meiner Applikation im Analytics Bereich weniger CPU Last, weil das Stutge Quid das übernehmen kann. Dann ein spannendes Thema ist ähm der Support von mehreren Bilans äh von Storage Grid Seite aus. Das war in der Vergangenheit kannte Storage Grid nur ein klein Netzwerk und damit ein klein Subnet. Wenn ich also in den meisten Kundenumgebungen habe ich also Applikationen oder Benutzer, die aus verschiedenen Subnets jetzt auf mein Storage Grid zugreifen wollen oder müssen, äh dann musste ich irgende eine Form von Routing dazwischen haben zwischen den einzelnen Vlad und das ist jetzt nicht mehr der Fall. Das heißt, wir können auch eine bessere Trennung machen äh von den Netzen, indem wir halt die Vlandance direkt auf dem Storage Grid unterstützen. Und da können wir also auch die entsprechende Anzahl äh also bis zu 4000 äh 94 VLAN anlegen. Dann auch einThema, was von vielen Kunden äh gewünscht wurde, ist das Exportieren von Audit Logs. Ähm, bis jetzt war es so, dass die Audit Logs auf der Admin Note gesammelt wurden. Äh, das hat zum bei großen Systemen und bei Systemen, die unter hoher Last waren, dazu geführt, dass dieAdmin Note ähm zum Teil halt sehr unterlast stand. Mit dem Exportieren der Audit Logs äh können wir das, sag ich mal, verbessern und praktisch dieAudit Logs an einen Syslock Server an einen externen äh exportieren. äh exportieren. äh exportieren. Wenn ich sage externer Syslock Server, dann ist das allgemein gefasst. Äh, das kann also auch ein Splank System oder ein ähm Elastic Search System sein, an dass ich dieseAudit Logs oder die Logs generell übertrage. Und das Ganze ist komfortabel aus der GUI zu administrieren und ich kann auch sagen, dass ich beides machen will, also ich dass ich weiterhin so machen will bisher auf der Admin Note lassen und zusätzlich an externen Sislock Server betrag. Da hat man also sehr viel Flexibilität. Dann das erste, was man eigentlich sieht bei der neuen Version, ist ein abgedatetes Webinterface. Ähm, das ist einProzess, den wir über mehrere Releases jetzt gemacht haben. Mit L haben wir das T Management, die Tent Management GUI abgedatet. Mit 116 ist jetzt das Gritadmin, der Gritadmin Gui hinzugekommenund in 117 sind dann auch noch Sachen geplant äh um die Usability zu verbessern. Und in dem gleichen Schritt haben wir auch den Prozess von Software Updates und Hotfix Installationen kombiniert, was das Ganze halt in, sag ich mal, verbessert und schneller macht. Darüber hinaus äh natürlich auch noch so, sage ich mal, in Anführungszeichen kleinere Updates, also ähm z.B. der Support für Google Cloud Plattform, für Dinge wie Cloud Storage Pools oder Bucket Mirroring ähm unterstützen wir jetzt also alle drei Cloud Provider, HWS, Azure und auch Google. Ähm, dann ist dazu gekommen äh zusätzliche Identity Providers, die wir für ähm wie z.B. also hauptsächlich denke ich mal interessant ist da Azure AD, also Azure Active Directory, was wir jetzt als Identity Provider nutzen könnenoder auch für Single Signon z.B. Und was wir natürlich in jedem äh Update von Storage Grid natürlich versuchen, sind Dinge Verbesserung der Skalierbarkeit und Performance. In dem Fall jetzt hauptsächlich für die SG6060, also Hardwareebasierten Hardware basierte Storage Note, dass wir da mehr äh Objekte supporten pro Knoten und damit die Skalierbarkeit natürlich auch wieder verbessernnd haben. Ja, und das war's. Wenn da also Fragen sind und gerne auf ihren Ansprechpartner bei Netup oder auf mich zurückkommen und damit gee ich zurück ins Unkhaus nach München.Ja, danke dir Marco. Ähm eine Frage, die nicht gestellt worden ist,immer noch erschreckend stille im in der Q&A Sektion. Ähm, aber die mir so ein bisschen auf den äh auf den Nägeln brennt, Object Loog, obwo gerade hier auf dem Slidedeck sehen. Ähm, eine Frage, die ich immer bei Kunden oft gestellt bekomme, ist äh KPMG Zertifizierung Fragezeichen. Ich weiß, dass das in der Mache ist. Kannst du oder darfst du dazu etwas sagen? Ähm, also mein letzter Stand ist, dass die Tests dafür durch sind und es jetzt praktisch nur noch darum geht, die Dokumentation zu machen, sollte also in naher Zukunft äh kommen. äh kommen. äh kommen. Das heißt, das hätten wir dann auch sehr schön. Gut, dannsind wir mit einer Punktlandung durch. Noch 5 Minuten Zeit für Fragen, auch wenn relativ wenig gestellt worden sind dieses Mal gibt es hier noch aus dem Publikum den Fragen? Der Philip da oben, der sieht so fragend aus. Aberdas können wir ändern. [gelächter] Ähm zu Cloud Backup Service äh war dann noch eine Frage. Welche Applikationen werden denn jetzt mit Snapcenter und zusammen mit Cloud Backups Service unterstützt? Der Axel hatte das glaube ich erwähnt, aber vielleicht noch mal kurz wiederholen, waswelche Applikationen da jetzt funktionieren. Ja, kann ich gerne noch mal wiederholen. Also Ocal Databases unterstützen wir.unterstützen Microsoft SQL Server, unterstützen Sapana Datenbanken und VMware an der Stelle. Also schon ein ganzer Haufen, ne? Super, danke schön. Dann da gibt's keine Fragen. Michi nicht.Eine Astra Frage hatten wir noch. Hallo zusammen, ich bin der Romian. Ich wollte zuerst bedanken für die Gelegenheitäh die sie uns gegeben haben. Ja. Äh, über Astra habe ich eine Frage. Äh, Handrik hat noch mal was über äh distributed Fsystem erzählt und hat gesagt, die Walkload äh oder US Case, keine Ahnung, w Astra ist zu äh Kubinetis. Ich wollte gerne wissen, was macht genau Astra äh für Küis? Das wä jetzt die Frage, also Astra ist eben diese Familie an Produkten. Ja, Astra Data Store ist das, was jetzt neu war, deswegen das, was ich primär vorgestellt habe als Storage Lösung, Software, F Storage Lösung, aber es kommt dann eben Astra Trident dazu als Treiber, als Integration und Aster Control für diese Application Aware Management Lösung. Aber all das sind Lösungen, die im Prinzip nur Kinetis Workloads betrachten, ne? ähm eben kein Fall Service oder andere Workloads, die ich vielleicht so klassisch im Rechtenzentrum noch habe. Okay, danke schön. Also gerade für das Astra Control haben wir jetzt glaube ich seit ein zwei Monaten auch ein eigenes Lab. Ich müsste mich dahin zeigen, wenn es richtig ist,mal die richtige Richtung ähm wo man das Astra Control eben wirklich dann mal anspielen kann, wie ich e mit einem Astra Control das Ganze einrichte, um eben kubitis basierten Workload zu sichern. Das ist eine relativ simple GUI, die wir da haben. Ähm, probiert es gerne aus und erzählt uns, ob euch das gefallen hat. Zeigt das vor allen Dingen gerne euren Kubanes Leuten. Ähm, die finden das in der Regel extrem spannend, weil das Ganze ist auch per API steuerbar. Ich muss mich dann nicht mehr groß damit kümmern, ähm sondern das wird einmal eingerichtet und das war's. Ähm, aber auch da wie angeboten probiert es im Lab aus oder kommt direkt auf uns zu. Ähm, gerade was die neuen Themen anbetrifft, haben wir in den Labumgebungen massiv aufgerüstet. Da sind schon sehrcoole Labs vorhanden und ein bisschen Ausblick kann ich schon mal geben in den September. Im September sind ja die Container äh Days in Hamburg. Da ist zumindestens, wenn ich auf den Bildschirm gucke, der Henrik äh vertreten. äh vertreten. äh vertreten. Ähm und wir werden auch parallel dazu eine Kompaktsession machen, wo wir auch über diese Themen reden und wir planen es aktuell auch das mit einem Lifelab zu kombinieren. Für die,Lifelab nicht kennen als Begriff. Lifelab ist quasi ein begleitetes Lab on Demand. Wir werden nichts vortanzen. Wir sind keine Trainer, wir sind keine Instruktoren. Ähm, wir sind aber da, wenn ähm Kunden oder Partner dieses Lab denn durchklicken. Es gibt ein Labgu Guide dafür, der ist sehr umfangreich. Ähm und wenn Fragen auftauchen für Zusammenhänge oder warum man jetzt Sachen so konfiguriert oder einstellt oder hinterlegt, was auch immer, ähm haben wir dann immer so zwei, drei Kollegen mit in der Runde, die denn ja Fragen zu diesem Labgip beantworten, warum Dinge gemacht werden, wie Dinge gemacht werden. Da kann ich schon mal kurzen Ausblick zu geben. Ähm Einladung dazu werde.Ähm Ende äh Ende diesen Monats äh denn dan den kommen bzw. Anfang August entkommen, wenn die nächste Session dann rum ist, nächste Session vielleicht da genau schon mal ein weiter im August wird dann das Netup der anderen sein, unser Referenzfeuerwerk, wo wir aus aktuellen Projekten in den der letzten ja nicht mal sechs Monate ähm erzählen werden aus unserem letzten Halbjahr ähm was wir dort alles so gemacht haben. Am Bund durch das Portfolio, also auch da kann man gespannt sein, was da kommt und ja, wie gesagt, am ersten habe ich Geburtstag, 18.8 achten. Würde mich freuen, als Geschenk bin, denn doch wir paar äh trotz Sommerferien und äh Sommerloch ähm doch ein paar Zuschauer finden würden für den für den August und würde an der Stelle die Runde hiermit schließen. Würde mich an alle ja vor den äh Kameras auf unserer Seite bedanken. Vielen Dank an die Kollegen, die heute ihre Zeit investiert haben. Einmal winken.Dann einmal auch vielen Dank an das Publikum, dass wir hier heute doch ein paar mehr Gesichter gesehen haben. Vielen Dank an unsere Losfee, dass wir hier dann auch eine richtige Reihenfolge hinbekommen haben und natürlich an allen Zuhörern und Zuhörerinnen dass ihr euch oder uns heute eure Zeit geschenkt habt. Anderthalb Stunden ist doch eine ganze Menge. Vielen Dank fürs Zören und fürs Durchhalten. Und im August werden wir denn wieder die obligatorische eine Stunde denn auch füllen. Wie gesagt, Referenzfeuerwerk, ich freue mich. Und in dem Sinne, tschüss, noch eine entspannte Restwoche und Blick auf den Himmel. Hier ist wieder blau. Kann dann auch die Rückreise nach Hamburg angetreten werden. Daher tschüss, bis zum nächsten Mal. Ciao.Tschüss. Ah. [musik] hier [musik]
Hoppla, schon wieder ein ONTAP update?