BlueXP is now NetApp Console
Monitor and run hybrid cloud data services
Hallo zusammen und herzlich willkommen zu unserer dies monatlichen Ausgabe von unserer Netup Kompakt, unserer monatlichen Webcastreihe hier bei Netep. Immer jeden ersten Dienstag im Monat und somit auch heute.sollte eigentlich eine ganz besondere Kompakt Session werden. Weil wir das erste Mal nicht von zu Hause aus oder aus unseren Standorten herausstreamen, sondern live von den Container Days hier in Hamburg. Ja, wenn ich sage sollte, ja, man sieht das an einem Hintergrund. Äh, es gibt Dinge, die kann man nicht vorausplanen. Es gibt Krankheiten, die doch was Positives mit sich bringen und sei es nur ein Schnelltest, mit dem man dann eine Woche Aufenthalt zu Hause gewinnt. Somit ja darf ich kann ich leider nicht vor Ort sein, sondern werde das Ganze in bekannter Art und Weise ja aus meinen eigenen Vänden hier moderieren. Aber wir haben auch Leute vor Ort. Da möchte ich an erster Stelle einmal den Chris kurz äh erwähnen. Äh mag da einmal kurz vor die Kamera irgendwie einmal hüpfen, [gelächter] damit nicht nur die Stimme aus dem Off ist. Hier der Chris, [gelächter] der sich um Kamera, Ton, Technik und auch das eine oder andere kümmert. Dann haben wir den Fabian und den Henrik, die beiden Herren, die da oben winkern, die auch auf den Containertagen verschiedenste Sessions haben. Da kommen aber gleich noch zu. Und noch einen Special Guest haben wir an das Ende der Republik, da sitzt der Axel. der heute auch noch mal das ein oder andere erzählen wird, den mussten wir Remut dazu holen, da er es auch nicht einrichten konnte nach Hamburg zu kommen. Bevor wir jetzt aber anfangen ähm hier etwas zu erzählen, etwas zuinterviewen. Wir wollen nämlich heute etwas anders machen als sonst, dass wir jetzt hier keineSlideshow Schlacht starten. ähm haben uns überlegt, dass wir hier, dass er als Interview gestalten, aber das doch etwas lebendiger ist. Ähm wenn Fragen auftrauchen aus dem Publikum, gerne her damit. Ähm jederzeit ähm die lassen wir damit in unsere Gespräche äh einfließen, dass wir denn hier ein möglichst ja lebendiges Gespräch entwickeln können. Auch der Axel wird am Ende der Session auch noch mal ein bisschen was erzählen, was auch bisschen interaktiver ist. Wir haben ein paar Live Demos auch mitgebracht. Ähm, an der Stelle möchte ich aber auch schon mal jetzt auch ohne Slide schon mal vormerken für den nächsten Monat, das ist das Obligatorische, was wir ja immer machen. Ähm, auch nächsten Monat wird es wieder eine Kompakt geben. Das wird der 4. Oktober sein, ist recht leicht zu merken. Nach dem 3. Oktober, dem Feiertag, da werden wir über Spot eine Menge erhören. Dann wird Axel heute auch ein bisschen im Detail äh schon mal ankratzen, aber die äh die Masse an Infos wird im Oktober kommen, wo wir einfach gesagt haben, das wird dediziert noch mal eine Session dazugeben, weil wir eben merken, dass es ein Thema ist, was aktuell sehrgut ankommt, was sehrviel Gespräche mit sich bringt und wo noch sehr viel Unwissenheit auch im Feld unterwegs ist. Wir werden dann noch im am 6. Oktober ein Liveelab haben. Wiederaufguss in Anführungszeichen Wiederholung ähm unserer Antiansomware Kampagne aus dem Frühjahr. Auch die ist ja sehr gut angekommen und die Nachfrage war auch jetzt vereinzelt aus den einzelnen Teams so hoch, dass wir gesagt haben, da machen wir noch mal eine Lifelab Session zu. Das heißt, wer da Interesse hat, am Ende kommt noch mal in die Folie, wie man sich anmeldet mit allen weiteren Daten und Links. Ähm, aber das schon mal vormerken, dass es da dann auch weitergeht.Gut, dann würde ich einfach mal sagen, schalten wir noch mal jetzt hier von Norderstädten nach Hamburg Winterhude. Paar Kilometer Luftlinie sind es Fabian und der Henrik sind dort vor Ort. Mögt ihr euch einmal kurz vorstellen, dass mal vielleicht an alle neuen hier in dieser Runde, da wir hier doch auf einer sehr technischen Ebene unterwegs sind,wir alle beim Du. Das heißt, wenn Fragen gestellt werden, auch gerne das Du benutzen. Wer sich möchte, könnt niemanden zwingen, kann natürlich auch gerne weiter beimSie bleiben, das ist auch kein Problem. Ähm, Henrik, wirst du immer eigentlich mal anfangen einmal kurz vorstellen, wer bist du? Was machst du bei Netup? Und im Anschluss einmal bitte den Fabian für die,euch beide noch nicht kennen. Ja, klar. Moin in die Runde. Binder Henrik, bin Solution Architekt bei Netupp für alles rund um Defops und insbesondere darin alles rund um Container, Kubybernetes, Cloud Native Anwendung, so dieses ganzeThemengebiet und kommen eben technisch immer dazu, wenndas irgendwie ein Thema ist und unterstützt und berat da gern.Fabian.Ja, mein Name ist Fabian Born. Ich bin Solution Specialist bei Netupp. Ähm auch Fokus tatsächlich auf das Thema Kubernetis ähm Container, alles was sich mit Defops beschäftigt. Ähm Automation ist auch noch eins meiner Parts und ja bin heute hier in Hamburg, um bisschen was über die Container Days einfach zu erzählen.Dann kommen wir da auch schon zu meiner ersten Frage. Vielen Dank einmal für eure kurze Vorstellung. Ja, Container Days, man sieht's über euch auch im Hintergrund bei euch so ein paar Hafenkräne äh sind dort auch zu sehen. Äh auch in Hamburg, ne, das Tor zur Welt, größter deutscher Seehafen. Was hat den das eigentliches mit Containern zu tun? Die Frage ist bewusst, bisschen plump gestellt, aber ähm erzählt doch mal ein bisschen, wasist denn das für eine Veranstaltung äh wo euch da umtreibt? Ganz kurz allerdings noch mal vorab gegriffen. Vielen Dank noch mal an die Mira, die das hier ermöglicht von den Container Days, dass wir hier streamen dürfen und auch können, die uns auch den ein oder anderen Sonderwunsch heute erfüllt hat und ohne die das heute auch nicht möglich gewesen wäre. Aber zurück zur Frage, was ist das eigentlich für eine Veranstaltung? Sind wir jetzt in die Logistikbranche gewechselt als Net? Ja, also tatsächlich, wir sind nicht in die Logistikbranche gewechselt, auch wenn Container Hamburg man natürlich direkt an den großen Hafen denkt. Ähm, aber wir reden hier über das Thema Kubernetis, über die über Docker, über alles, was Applikation in einfach der Containerumgebung geht. Die Container Days sind ein ist eine Community Veranstaltung ähm in Deutschland die größte mit ich glaube dieses Jahr sind es tatsächlich fast 700 Menschen, die hier ähm vor Ort in Hamburg sind plus noch eine Handvoll Leute, die on online dazu geschaltet sind. Und hier geht es tatsächlich einfach nur darum, dass viele Themen rund um das ganze Thema Kubernetis besprochen werden von Kunden, von Herstellern nicht ähm sondern wirklich tatsächlich aus Kundensicht ähm vorgestellt werden. Dann bleibt mir ja nur eine Frage noch zu stellen. Was machen wir als Netup denn eigentlich da? Also warumseid ihr da? Was haben wir damit überhaupt zu tun? Ja, eigentlich eine ganze Menge. Also dieses ganze Umfeld Container Kuberet, das ist ja was, wo wir als Netup schon relativ lange ähm auch reininestieren. Ja, ist einfach einweiterer Workload, der für uns durchaus sehr relevant ist. Ähm wo wir hier konkret sind mit Ständ zwei Ständen alsAussteller. Ähm wir haben heute morgen einen Talk gemacht. Es geht ja auf diesen Veranstaltung immer sehr stark darum, einfach Wissen Erfahrungen zu teilen und gerade in diesem Spezialgebiet Storage Datenmanagement und im Kinetes Umfeld machen wir jetzt als Netup natürlich viele Erfahrung und geben die dann auch weiter im Rahmen von so einem Talk. Ähm geht drum die Leute zu treffen. Ähm es ist Fabian schon gesagt hab eine große Veranstaltung international inzwischen auch also mindestens mal europaweit. Von daher sind es eben auch die Container Days, nicht die Containertage. Ja, Sprache ist tatsächlich Englisch. ähm und geht einfach drum, die sich zu treffen, sich auszutauschen, ähm diese Erfahrung auszutauschen, ähm viele nette Leute zu treffen. Ja, das ist so das, was wir machen. Und vielleicht so ein bisschen weiter gegriffen, ähm kann ich mal kurz zeigen, was tut der Net in dem Umfeld einfach, ja, für die Leute, die das vielleicht noch nicht wissen. Und wenn wir uns das mal angucken, ähm imPrinzip geht's rund um Kubybernetis. Konit ist erstmal keine Komponente, die wir als Net bereitstellen würden, ne? Ähm, da gibt's gängige Distributionen, sowas wie ein Open Shift von der Redhead, sowas wie ein Rancher von der Suse. VM wer mit Tansu. Es gibt natürlich das, was die Cloud Provider machen, also Google, AWS, Azure. Ähm und mit all diesen Varianten spielen wir ähm genauso wie mit den Workloads. Typischerweise Workloads, die in irgendeiner Form State sind, also Workloads, die noch vom Daten lesen, schreiben, verarbeiten und dafür haben wir Lösung. Ähm und man sieht das hier so ein bisschen zwei geteilt. Einmal on premises, also das klassische Data Center, ähm wo natürlich unsere klassischen Storage Lösungen dann auch stehen und KNTIS ist dann einer der Workloads darauf oder das ganze eben auch in der Public Cloud ähm mit den gemeinsamen Lösungen, die wir dort mit den Cloud Providern haben. Also das, was ich hier ganz generisch mal Cloud Volumes Plattform nenne. steht dann dahinter sowas wie ein Asure Netup Files als nativer Asure Service, der aber auf Ontp Technologie baut, sowas wie ein FSX Netup in AWS als native AWS Service, der aber auf Ontap Technologie aufbaut. ähm diese ganzen Lösungen, ja, drüber spannen wir das, was wir Astra Tridentland lenden, das ist so die Anbindung, ja, also wir haben die Storage Plattform, die wir bereitstellen können in all diesen Umgebung und müssen das jetzt anbinden an das Kubnetis, das ist das, was ein Trient tut, ähm was wir tatsächlich auch schon sehrlange machen. Ähm und dann ergibt sich zusätzlich nur so ein bisschen die Fragestellung, ich habe da jetzt Daten, die werden jetzt aus so einem Container raus ähm geschrieben, verarbeitet. Der Container an sich ist erstmal flüchtig, das heißt, der ist relativ kurzlebig, der fällt irgendwann wieder weg, der wird ersetzt durch einen anderen Container. Ich muss also die Daten extern halten. Ähm und wenn ich sie dort habe, dann muss ich sie halt in einer Form z.B. sichern. Ja, das heißt, ich muss mir über das Thema Backup Gedanken machen, ich muss mir über das Thema Restore Gedanken machen, ähm ich möchte vielleicht mal migrieren oder muss migrieren. Ähm ich möchte vielleicht mal einen Klon, eine Kopie von so einer Applikation haben. All solche Dinge. Das ist das, was wir dann mit dem Thema Astra Control adressieren. Das ist jetzt erstmal so der Teil, der sich fokussiert auf Storage, auf Datenmanagement. Ja, äh das fassen wir zusammen unter diesem Begriff Netup Astra.Es gibt dann zwei weitere Teile. Das eine ist Cloud Insights. Kennt vielleicht der eine oder andere jetzt im Call schon. Wo es drum geht, ich muss das monitoren, ich muss das in irgendeiner Form ähm beobachten, was da passiert. Also geht jetzt über ein reines Monitoring von irgendwelchen Schwellwerten hinaus. Man spricht im Kybernetusumfeld danngern von Observability. Ähm und das muss ich eigentlich tun über diesen gesamten Stack. Also ich habe meinen Container, ich habe Kybernetis als Containerplattform, ich habe drunter vielleicht einen VMW als Hvisweiser, ich habe dann irgendwo mein Storage System. Und ich muss eigentlich über diesen gesamten Stack erfassen, was passiert denn da? Wie sieht das aus? Ein weiterer Teil, den wir tun. Und dann last aber sicherlich noch not least ähm was wir machen mit Spot, wo es dann drum geht, das Ganze zu optimieren, insbesondere wenn es in der Cloud läuft. Äh da wird dannder Axel nachher noch ein bisschen was zu erzählen von da halte ich das hier an der Stelle kurz. Aber Spot natürlich auch ein wesentlicher Bestandteil, nicht nur für Konnetis, aber eben gerade auch, wenn es um Konnet Workws geht und das ist so das was wir hier auf der Veranstaltung tun. Wie gesagt, neben dem ganzen Austausch, neben dem ähm Treffen der Leute, neben dem Talk, den wir gehalten haben. Äh, also es sind anstrengend durchaus stressige Tage, aber esmacht verdammt viel Spaß. Echt?Ja, ich sollte mich auch entmuten. Das wäre äh wäre vorteilhafter. Ähm eine Frage, die denn doch sehr oft aufkommt äh von Kundin ähm und auch Partnern. Sind das denn eigentlich Themen, die am Ende einen eine Fachabteilung eigentlich wirklich interessiert? Ähm oder sind das ja Themen, die jetzt nicht bei einem Storage Team angesiedelt sind? Also ichversuch so ein bisschen immer so den Zusammenhang, wie kann man diese Welten miteinander verbinden? Ähm wiebekommt man das irgendwie hin? Also wie bin ich also ganz stump gefragt, wie binde ich meine Netbet? Ich habe den Net im Keller stehen, äh die betreibe ich so wie man uns eigentlich auch in den letzten Jahren, Jahrzehnten kennt. Ähm wie kommt jetzt diese ganzen neuen Thematiken ähm ins Spiel? Weil die Folie, die du gerade gezeigt hast, da stand ja ganz unten rechts ganz klein Onbrem und auf dem Rest der Folie stand ja ganzviel anderes. Ähm, wie verbinden sich diese Welten miteinander? Ja, das ist tatsächlich ein guter Punkt. Das ist eine spannende Frage. Ähm weil wir eben, du sagst es ganz schön, zwei Welten eigentlich haben, ja? Ähm und wir teilweise dann tatsächlich auch so ein bisschen der Mittler zwischen diesen Welten sind, ja? Also in der Idealvorstellung ist das Death Ops, das fließt alles irgendwie zusammen, das wird alles eins. Organisatorisch ist es das typischerweise eben nicht, ja? ähm, sondern das sind natürlich unterschiedliche Teams, unterschiedliche Abteilung, unterschiedliche Leute, die dort zusammenarbeiten müssen. Ähm und das ist schon so ein bisschen die Aufgabe, die wir auch sehen, ähm dieseVermittlung zwischen diesen Welten, weil ja, ich habe natürlich ein Storage, ich habe auch einen Team, das betreibt, dass das im Unternehmen als Service dann auch wieder bereitstellt und ich habe dann auf der anderen Seite eben vielleicht einen Software Entwickler oder so ein Application verantwortlichen, soein jemand, dersich darum kümmert, dass diese Applikation läuft, ähm die das ganze nutzen und konsumieren sollen. Ähm und da ergeben sich natürlich Anforderungen, also auf der Betriebsseite Storage möchte ich sicherstellen, dass mein System funktioniert, dass es nicht überlastet wird. Ähm auf der Applikationsseite habe ich eben dasDrängen dort. Ich muss neue Features liefern, ich muss relativ schnell sein mit dem, was ich tue. Das heißt, ich möchte vielleicht nicht auf irgendeinen händischen manuellen Prozess warten, sondern brauche eine Automatisierung dahinter und das ist z.B. das, wo sowas wie einen Talent dann reinspielt. Also ich zeig das vielleicht mal kurz. während du das vielleicht kurz auch vorbereitest, ähm weil wir noch etwas gehen in Lehre in der Q&A oder F& A Sektion haben, wenn Fragen auftauchen, äh oder einfach noch Kommentaregerne in den Chat benutzen. Bei Fragen gerne die F und A oder Q und A äh Funktion hier von der Zoom Session nutzen. Ähm das bauen wir denn gerne mitein. Sind das Themen, die hier in die Runde jetzt gefragt irgendeinen ein eine Rolle spielen? Ähm, die immer wichtiger werden, die vielleicht keine große Rolle spielen? Da gerne einfach mal Feedback in unsere Richtung, wie sehr das, was jetzt gerade der Henrik schon erzählt hat, ähm hier auf die Runde zutrifft. Ähm Feedback wird uns das sehrbrennend interessieren. Ja, gerne. Also schauen wir dann gleich rein. Ähm ich erzähle vielleicht kurz ein bisschen was. Also wir waren bei dem Punkt, wie verbinden wir diese Welten und Trident ist tatsächlich so eins der Tools, die das tun. Ähm schon ziemlich lange seit 2016 Kubernetis ist 2015 das erste Mal überhaupt in Erscheinung getreten, also ziemlich kurz danach. Ähm ist ein Open Source Projekt erstmal, weil sich anbindet eben an Kybernetis, was auch erstmal ein Open Source Projekt ist. Es ist aber ein vollwertiges Netuppukt, ne? Das heißt, alle unsere Kunden haben Anspruch auf vollen Support für Trident z.B. Sie brauchen aber keine extra Lizenz, weil es eben ein Open Source Projekt ist. Ähm, das nutzt eine Schnittstelle, die nennt sich CSI. Das ist das Container Storage Interface. Das ist die der offene Standard, über den wir diese Integration in Kybernetes machen. Das heißt, ich binde mich da jetzt nicht irgendwie zu eng an irgendwas, sondern es gibt offene Standards für diese Integration und das nennt sich eben CSI äh und Triiden ist damit so ein CSI Corvisioner oder CSI Treiber, sagt man dazu. Ähm und das Schöne daran ist, der funktioniert eben mit all diesen unterschiedlichen Kubinetis Lösungen. Egal, ob das ein Open Shift ist, ein Too ist, ein Ranger ist, ob das ein Open Source Cubinet ist, ob das irgendwas in der Public Cloud ist, das ist immer das gleiche Trident und das gilt auch für den Storage Teil davon. Ja, das heißt egal ob das jetzt mal ein Ontipp im Data Center ist oder ob das irgendeine Form von Netup Storage in Asure ist, in Google Cloud ist, in ABS ist, es ist immer das gleiche Trient, ich habe immer die gleiche Anbindung und damit eigentlich diesen konsistenten Datenrahmen, den ich brauche an der Stelle. Ja, also das was Kybernetis für die Applikation liefert, machen wir für die Storage Teil und für die Daten. Ähm für das wie es konkret funktioniert. Wir haben unseren Storage Teil, ich sag jetzt mal ganz generisch, Data Fabric, um auszudrücken. Das ist jetzt egal, ob dasOntap im Rechenzentrum ist oder eben irgendwas in der Cloud. Ähm und wir haben so ein bisschen Vorbereitungsschritte. Ich installiere das Trident in den Comunis Cluster. Also Trident selber ist ein Container, der in diesem Comunes Cluster läuft eben alsTreiber, ne? Ähm, ich konfiguriere den Storage und das ist ein wichtiger Teil. Ja, als Storage Admin will ich ja durchaus die Kontrolle behalten über das, was da passiert. Das heißt, wir konfigurieren im Datacenter z.B. eine SVM, also eine Storage Witcher Machine als virtuellen Mandanten für diesen iniertes Workload und auf dem gleichen Storage System habe ich dann typischerweise andere Workout Filerices, SAP, VMware wer alles was da sonst noch so läuft und ich isoliere diesen Kubinetis Worplot komplett vor allemanderen und kann auf dieser Ebene SVM dann ja durchaus auch entsprechend Berechtigungen vergeben. Also ich kann sagen, diese SVM darf in Summe nur so viel IIOPS verursachen oder so viel Durchsatz verursachen. Die darf nur so und so viel Volumes haben. Also diese ganzen Dinge, die ich einschränken möchte, nicht um bewusst einzuschränken, sondern einfach abzusichern, dass ich einen stabilen Storage Betrieb habe. Das kann ich natürlich alles im Montab direkt konfigurieren. Dann konfiguriere ich auf der Kubnetseite sogenannte Storage Klasse. Ähm, das ist der Ausdruck von einem Service Level. Ja, also ich kann Storage haben, der vielleicht eher Richtung Archiv geht, ein anderen, der nicht für Datenbanken nutze, der dann schnell sein soll. Ähm, dafür kann ich unterschiedliche Storage Klassen anlegen. Ich nenne dich in dem Beispiel jetzt mal Gold, Silber und Bronze. Und dann konfiguriere ich das ganze Trident. Das heißt, ich sage dem Trident, dort ist das Storage System, hier ist ein User innerhalb dieser SVM, also nicht in meinem Oneplluster, sondern innerhalb der SVM. Ähm und mit dem kannst du dich dort verbinden. Einen Benutzer auf dieser Königes Plattform kann jetzt hingehen und legt einen sogenannten PVC an, ein Persistent Volume Claim. Das ist so die Anfrage nach, ich hätte gern ein Stück Storage, ja, in diesem Fall 10 GB aus der Storage Klasse Gold. Ähm und das soll bitte Reed White Many sein, das ist dieses RWX. Sprich, ich möchte von verschiedenen ähm Containern aus möglicherweise zugreifen. Ja, weil ich z.B. eine Shareplattform, es könnte Read Once sein, es könnte Read only sein, also ein Access Mode. Trident erkennt jetzt, dass diese Anfrage reinkommt und provisioniert das Ganze. Das heißt, er verbindet sich zum Ontap, er legt das Volume an, er legt, wenn es NFS ist, z.B. Export Policy an, wenn es Ice Casi ist, eine IGOUP an. Er konfiguriert das, er legt eine Snapshop Policy drauf, wenn ich das möchte. Trident konfiguriert all diese Dinge, die notwendig sind und übernimmt dann auch das Mountain in küminiert des Plaster. Das heißt, der guckt, wo läuft denn dieser Container überhaupt und verbindet das Ganze und hängt das dort dran. Und dran. Und das Ganze ist durchautiert und dauert so eine Sekunde oder zwei. Das ist so ungefähr der Zeitraum, den das braucht. Das heißt, das was der Entwickler sieht, ist er stellt diese Anfrage nach Storage und kriegt das quasi unmittelbar. Ja, das ist sofort da und funktioniert. Und das ist das, was der Entwickler an der Stelle eben auch braucht. Der braucht diese Geschwindigkeit. Der muss schnell sein in dem was er tut. Ähm und das ist der Service, den wir ihm von der Storage Seite aus liefern können. Das heißt, ich gehe nicht mehr hin und leg das einzelne Volum an, äh sondern ich stelle den Rahmen bereit, indem der das tun kann. Und das ist so dieser Anknüpfungspunkt, dieser erste Schritt für die für die Verbindung zwischen diesen beiden Welten.Äh, dann die Frage, warum sollte ich das denn so machen? Jetzt mal aufdoof gefragt.Ähm, ich könnte ja einfach auch händisch ein Volume einfach anlegen, wenn jetzt ein Entwickler auf mich zukommt und sagt: "Hey, ich brauche da mal 10 TB Sorry war jetzt Nein, also derGrundprinzip von Trident ist, dass er das automatisiert. Ja, also Trident ist am Ende eine Automatisierungslösung. Das heißt, er legt das Volume an. Ich kann ihm einen Prefix vorgeben für den Volume Namen z.B. wenn ich Zuordnung haben möchte, aber Trient verwaltet das selbständig innerhalb der SVM. Das heißt, meinLevel an Service, den ich quasi erbringe, wandert von ich gebe ein Volume raus zu ich gebe eine SVM raus mit einem gewissen Rahmen, ja, mit gewissen Leitplanken und innerhalb dieses Rahmens kann der Entwickler das selber tun. Denn eine Frage, die wir denn sehr oft auch hören, ähm auch unsere Kunden, wenn es um Kosten geht, wie auch immer beschäftigt, was kosten das eigentlich? ÄhmTrent selber ist open source, das heißt, ich brauche keine eigene Lizenz dafür und ich habe vollen Support, solange ich irgendeinen Netop Storage noch unter Support habe, ne? Also das ist das, was glaube ich den Einstieg in diese Welt auch sehreinfach macht. Ähm, wenn der Netup Storage schon vorhanden ist und vermutlich Kuby ist oder auch ein Docker Container oder sowas in irgendeiner Form, aber typischerweise heutzutage Kubinet ist, ähm dann kann ich direkt loslegen. Gerade bei kostenlos sind, ähm hast du einen kostenlosen guten Geheimtipp, wie man diese beiden Welten am besten zusammenbringen kann. Also auf der einen Seite eine Fachabteilung, die z.B. aus Entwicklern besteht, die in der Regel ja dann ihr Ding macht und auf der anderen Seite eine IT-Abteilung, eine Storageabteilung, eine Infrastrukturabteilung, die ihr Ding macht, ähm die meistens in verschiedenen Welten leben, wie auch unsere Erfahrung ja zeigt. Was sind da soMittel und Wege äh wie sich diese beiden Welten annäheren können? annäheren können? annäheren können? Ja, das ist schon was,wir natürlich auch gerne unterstützen können, ja, weil wir natürlich die Storage Seite verstehen, aber eben auch und das sind jetzt nicht nur wir beide, da gibt's natürlich noch weitere Kollegen auch in dem Umfeld äh das relativ gut verstehen. Das heißt, da können wir durchaus gemeinsam auch reingehen ähm und einfach schauen, wie könnte so eine Lösung aussehen. Ja, weil am Ende läuft's drauf hinaus, man muss einfach miteinander reden. Ja, das ist schon der Grundgedanke von dieser ganzen Defops Welt auch, dass man sehr viel mehr miteinander spricht und sich austauscht und gemeinsam nach Lösung sucht und die gibt's dann durchaus auch. Perfekt.Ähm eine vier Fragen sind es im Chat aufgetaucht. Ich würde es mal an den Chris äh die Stimme aus dem Offeter Kamera einmal kurz übergeben aufgrund der besseren Audioqualität, wenn er das vorliest. Chris äh ist eine Frage zur Datensicherung aufgekommen. Och mit Puschel sogar. Ja, mit [gelächter] Puschel. Ich wusste nicht, ob wir tatsächlich hinter den Containern stehen oder ähm ob es recht zugig wird und so. [gelächter] Die eine Frage war, für welche Schichten kann ich die Netup Snapshots für eine nachgelagerte Datensicherung nutzen? Weiß nicht an wen äh passt die Frage am ersten.Also grundsätzlich ähm kann man natürlich die Sicherung der Snapshot halt für die Applikationssicherung nehmen für Daten die Sasto Recovery ähm oder wenn halt tatsächlich mal ein Container nicht mehr sauber läuft, dass man dann Backup einfach zurückspielen kann und dafür haben wir tatsächlich auch ein eigenes Produkt, das ist Astra Control. Wir hatten das vorhin schon mal in unserer Lösung ähm gesehen und ähm ja, es ist halt einfach das Backup und das Desast Recovery Tool, mit dem am Ende des Tages der Endanwender, also gar nicht der Storage Admin oder das Backup Team Backups von meiner Kubernetis Umgebung, von mein Kubernetis Applikation machen kann. Hoffe das beantwortet die Frage. Ich glaube, da kommen wir auch gleich. Dann kam noch eine Frage rein und zwar kann ich die Storageemenge ähnlich einer Quotierung begrenzen? Also äh kommt ihr da vielleicht in der Demo noch drauf oder könnt ihr gleich was dazu sagen? Also einQuoter über Trident ist heute Hendrik Korrigier mich dann gegebenfalls nicht möglich. Ähm das ist ein Feature, was wir gerne in der Zukunft gerne haben und somit ähm haben wir aus Storage Sicht halt tatsächlich die nur dieLimits, die unsere Controller oder unsere Software gibt. Ähm also in Fotstand heute nicht möglich.Und weil du gerade ansprichst von wegen was sich ändert, ähm es kam gerade eine Anfrage von dem Kunden rein, der sagt, wir verwenden Trident und Onbrime schon recht lange. Dabei hatten wir immer wieder Probleme mit der Number of Volumes Restriktionen auf Ontubs, also pro Note, pro Aggregate. Wird sich da auch was ändern? Das ist jetzt die Frage.Ja, klapp, also hat sich ja durchaus auch immer wieder was geändert. ähm vielleicht nicht mit jeder Unterpersion, aber grob vielleicht mit jeder zweiten. Das heißt, wir sind natürlich dran, ähm diese Limits zu erhöhen und vielleicht kurz für alle. Ähm, Hintergrund dazu ist, in so einer Kugnetiswelt ähm habe ich typischerweise sehr kleinteilig Software, das was man dann Microservices nennt, also das was früher eine große monolitische VM war, sind jetzt viele kleine Container und das wirkt sich auch dahin aus, dass ich dann häufig viele kleine Volumes habe, die ich dort entsprechend anlegen muss. Ähm und damit komme ich auf eine sehr große Anzahl Volumes. Ähm und da gibt's dann irgendwann entsprechend natürlich ein Limit, wie viel Volumes ich haben kann. Das sind Limits, an denen wir sehr stark arbeiten. Ähm wo sicherlich in Zukunft auch noch was passiert, ohne dass ich jetzt viel versprechen kann in Richtung Roadmap. Ähm, aber ähm ich glaube, die Botschaft kann können wir können wir gut rüberbringen. Ja, natürlich arbeiten wir dran und da tut sich immer hat sich was getan und wird sich auch noch was tun. Sonst gibt's von hier keine neuen Fragen, Bennet. Fragen, Bennet. Fragen, Bennet. Ja, dann mer an den Puschel. ähmvi an der Stelle auch eingehakt, wer aus dem Publikum da mehr drüber wissen will, ähm auch wie sich da bei uns die Welt entwickeln, kommt gerne direkt auf uns zu, sprecht uns direkt gerne drauf an. Ähm und da äh 4 se Augen können wir an ein oder anderen Stunde ein bisschen mehr erzählen als in der großen Runde. Ähm ja, zuständes Nicken. Ähm da bitte bisschen ja äh dieRücksicht drauf nehmen, dass wir jetzt den nicht ausallen vollen irgendwie Rohren feuern können. Ähm wer mehr wissen möchte, gerade was in der Zukunft passiert, gerne auf den Ansprichpartner seiner Wahl zu gehen. ist in erster Linie mein der Netup Accountmanager Accountmanagerin ähm der die Kollege Kollegin kann denn auch alle weiteren Schritte in die Wege leiten, dass wir dann hier etwas mehr zu erzählen können. Gut, äh das Thema Astra wurde ja gerade auch über angesprochen. Äh auch wieder so ein Thema, was man ja sehr gerne mit Hamburg verbindet. Das schlechteste beste Bier der Welt. Ähm eine der schönsten Marketingkampagnen, die es in den letzten 10 Jahren gab. eine Biermarke, die sich immer wieder neu erfunden hat. Ähm, passt nämlich auch ganz gut zu dem, was Astra beiuns macht. Ähm, das Thema Backup wurd ja auch schon angesprochen. Ich finde es übrigens extrem cool, dass diese ganzen Fragen nicht wirklich alle abgestimmt waren im Vorfeld, sondern dass doch so ein bisschen jetzt überrascht seid. Aber ich finde das ein ziemlich gutenFlo gerade. Ähm, das jetzt wiederum ist abgesprochen, weil ihr hab noch eine kleine Live Demo mitgebracht, äh nämlich gerade zu dem Thema Astra. Da wollte ich auch noch mal ein bisschen was zeigen. Ähm, da kann ich schon mal im Vorfeld sagen, wem das gleich gefällt, interessiert, wer mehr wissen möchte. Das wird das gleich ein ganz kurzer Einblick sein für ein paar Minuten. Ähm, am Donnerstag diese Woche haben wir unser Lifelab.bedeutet, dass wir eine ja Laborumgebung für jeden Teilnehmer einzelnen zur Verfügung stellen, wo ich dann eben genauso ein Astra Control einrichten kann, wo ich eben meine Applikation mit sichern kann, ähm wie ich Dinge löschen, kaputt machen kann, sie wieder restoren kann, ähm wo ich einfach mal so ein tieferen Einblick bekomme. Kostet auch wie diese Runde hier kein Geld, außer zwei Stunden seiner Zeit, die man opfern muss. Ähm Anmeldung ähm packe ich noch mal gleich in den Chat. ähm geht einfach per EB ähm Formlos und dann kann ich dann noch den ein oder anderen Lab Platz für Donnerstag vorreservieren. Ähm Fabian Hendrik ködert die Leute doch mal so ein bisschen. Was erwartet denn die Teilnehmer die potenziellen Teilnehmer am Dollarstar? Ja, im Prinzip allesrundum Backup, Restore, Migration. Also ähm wir haben gerade kurz über Tron schon gesprochen, ja? Also wasbrauche ich denn für diese Anbindung in Richtung Knetis? Wenn ich das angebunden habe, dann stellen sich eben diese ganzen klassischen Betriebsthemen. Ja, also ich habe dort Daten, das ist immer ein produktiv und damit möchte ich es vielleicht auch sichern, ja, und ich möchte es wieder restoren können, restoren vielleicht auch an den anderen Standort. Ähm dieseganzen Themen und das ist das, was man da in dem LiveB einfach mal selber auch ausprobieren kann. Wie fühlt sich das an? Ähm auf der technischen Seite eigentlich am Ende ganz banal. Also wie binden wir eine Net Snapshot Technologie ein? Wie kann ich ein Snapmror einbinden? Wiekann ich diese ganzen Funktionalitäten, die ja auf der Store Seite schon gibt, ähm für einen Benutzer auf der Ebene Kubernetis dann auch benutzbar machen. Ja, mit dem Ziel, dass jetzt der Benutzer auf Kubernetis Ebene kein Storage Admin wird. Ja, dersoll nicht onb im Detail verstehen müssen, das ist ja nicht seine Aufgabe, aber er soll diese Dinge eben nutzen können und das ist das, was ein Aster Control tut, was man da ausprobieren kann und muss Fabian, magst du es einfach mal zeigen? Ja, klar. Ich kann natürlich jetzt einfach schon mal einen kleinen vor Vorgeschmack gebenund einfach mal zeigen, was ist überhaupt Astra Control? Ähm, gebe ich mal gerade hier hin. So, dann springe ich gerade mal in meine Session rein. Ähm, wir haben hier tatsächlich Astra Control als ein Webi unseren Kunden zur Verfügung stellen bzw. der Kunde kann das Ganze bei sich in seinem Rechenzentrum installieren oder auch wenn er in der Cloud unterwegs ist. als Service nutzen. Beide Produkte Astra Control Center, Astra Control Service ähm unterscheiden sich tatsächlich nur mit dem Anwendungsgebiet.Was ich jetzt einfach mal kurz zeigen möchte, ist ähm wie kann ich von meinen Kubernetis Applikationen ein Backup machen, wie kann ich einen Restorm machen? Genau die Themen, die tatsächlich am Donnerstag auch in dem Lifelab ähm selbst gemacht werden können, sollen müssen, äh möchte ich heute einfach mal kurz zeigen. Ähm vielleicht zuerst ähm wenn wir unseren Storage Admin einfach angucken oder in die Augen von dem Storage Admin gucken, dann möchte natürlich wissen, welche Storage Umgebung, welcher Controller, welcher Kluster ist hinterlegt. Das ganze finde ich unter Backends. In meiner Demo Umgebung habe ich jetzt hier zwei Klass drinne stehend. Kluster 1 und Cluster 2 laufen beide auf Ontap 991. Ich kann mir ein bisschen detailierter reinschauen, indem ich auf einen Kluster gehe und bekomme dann hier unten eine Liste angezeigt von allen PVCs, also bzw. ein Volumes, die als PVC in me Kubernetus Umgebung ähm angelegt wurden. Sehe die Größe, ich sehe welche Applikation später in Kubernetis das Ganze gehört und an welchem Kubernetis Klaster, das sieht man hier hinten mit RKE ähm das Ganze angelegt wurde. Wer auf die linke Seite einfach kurz guckt, ähm sieht das Thema Buckets. Ähm Buckets nutzen wir, um unsere Backups nachher die von den Applikationen auszulagern als äh Bucket. ähm unterstützen wir ähm Storage Crit ähm oder auch Ontype S3, aber wir haben auch die Möglichkeit tatsächlich ein Generic S3 anzulegen, ähm oder das Ganze in Richtung As Blop weiter auszulagern. Das heißt, somit habe ich eine Disas Recovery bzw. eine ähm Dreide Backup Methode ähm mö Backup Methode möglich. Methode möglich. Methode möglich. Schauen wir gerade erstmal in das in den Thema Cluster rein. Hier ähm habe ich jetzt meine zwei Cluster. Wenn ich ähm neu anlegen würde,ich jetzt mein Cube Contact Fall reinpacken. Ähm das machen wir jetzt heute nicht, weil wir wollen tatsächlich einfach nur gucken, wie sieht das Ganze aus. Ich gehe hier auf RKE 1 und bekomme dann eine Übersicht an allen Applikationen ähm, die in meinem Kubernetiskluster laufen, die gemanaged bzw. noch nicht gemanaged sind. Ich habe jetzt aber schon im Vorfeld einfach tatsächlich mal eine Applikation als Managed gesetzt. Das heißt, dementsprechend kann ich jetzt erst Backups und ähm sogar Snapmor Replikationen in einen anderen Klass in Kluster bzw. in einen anderen Standort konfigurieren.Das Ganze ähm wird nachher über den Bereich Applications gemanaged. Hier sind sehen wir tatsächlich meine Applikation, die ich habe. Ich möchte jetzt im ersten Step mein Blog sichern. Gehe auf die Applikation drauf und bekomme wieder eine Übersicht. Data Protection, Storage, Resources, Execution, Hooks Activity. Das sind so die Hauptfelder, die wir in dieser Applikation haben. Was verbirgt sich dahinter? Im Bereich Data Protection ähm sehe ich einmal ähm existiert hier eine Snapmror Beziehung, z.B. existiert ein Backup, existiert ein Snapshot. Wichtig zu sagen, der Snapshot liegt immer lokal auf Ontap und das Backup wird nachher auf ein S3 Target ausgelagert.Replication ein ganz neues Feature äh was wir drinne haben, wo im Hintergrund zwischen zwei Ontpystemen ein Step Mirror aufgesetzt wird. Unter Storage haben wir ganz äh sehen wir alle PVCs, alle Volumes, die für diese Applikation notwendig sind. auch hier einfach wieder die Größe, auf welcher SVM liegt das Ganze ähm und welche UU ID hat sie in Kubernetis, um so einfach einen Zusammenhang zwischen Ontap und dem Kubernetiser zu kriegen. Ein ganz wichtiger Punkt für unsere Kubernetis Ansprechpartner ist das Thema Ressources.Welche Ressourcen werden denn überhaupt gesichert?Mit Astra Control sichern wir tatsächlich ähm alle Ressourcen, die zum Betrieb einer Applikation notwendig sind. Das heißt, das sind die ConfigMaps, da sind custom resources, Resource Definitions, wir haben Secrets, die mitgesichert werden, PVC Information, all diese Metadaten werden einfach auch mitgesichert und können so dementsprechend auf einen weiteren Cluster zurückgespielt werden bzw. bei einem Restore auch zurückgesetzt werden. Ein wichtiger Punkt ähm ist das Thema Execution Hooks vielleicht für diejenigen, die mal eine MySQL Datenbank ähm am laufen haben, gerade Datenbanken müssen in den Backup Mode gefahren werden und dann ist es wichtig, dass wir hier ähm sogenannte Execution Hooks haben, die im Vorfeld, bevor ein Snapshot generiert wird, einfach die Datenbank in Backup Mode schaltet, dementsprechend die Daten auf die Platte schreibt, dann wird der Snapshot getriggert und im Anschluss gibt's ein Posthook, so dass die Datenbank wieder online geschaltet wird. Ansonsten die Konfiguration für das Backup ähm passiert hier oben über Action ähm Entschuldigung über das Thema Data Protection Configure und hier habe ich die Möglichkeit eine Protection Policy dementsprechend zu setzen. Die Leute, die Ontap kennen, wissen ähm das sieht ähnlich aus. Das heißt, ich definiere meine stündlichen Backups oder meine stündlichen Snapshots, äh meine Daily, meine Weekly, meine Monthly. ähm sage, wie viel sollen davon aufgehoben werden? Also genau das gleiche Verhalten, wie wir das auf Ontap haben. Und dann haben wir das Ganze natürlich auch mit dem Thema Backups, sodass wir das Ganze auch be S3 Target auslagern können. Ich definiere das jetzt gerade parallel dazu. Ähm wähle ich hier meine Policy aus. Ich mache jetzt einfach nur diestündlichen Snapshots, hebe davonacht Stück auf und mache noch ähm zwei Backups, die ich tatsächlich auslagere. Als Destination für me fürs Backup wähle ich dann meinen Bucket aus. Das ist hier das Ont S3. Sage next, configure und dann läuft das Ganze im Hintergrund. Und schon sehe ich, dass tatsächlich ähm mein Backup konfiguriert ist.Die Applikation befindet sich aktuell noch im ähm Protection im Partial Protected Modus. Ähm, wenn man drauf guckt, sieht man das einfach stand jetzt noch ein Backup fehlt. Da kann man ein on dem Demand Backup quasi manuell triggern, indem ich hier runter gehe, ähm sage create Backup, bekomme ein Wizard,wähle den Backup Namen aus, sag, möchte ich ein existierenden Snapshot nutzen, ähm gebe definitiv auch dann meinBucket wieder an, sage next und schon passiert im Hintergrund das ganze Backup. Now genau ein wichtiges neues Feature tatsächlich ähm ist das Thema Replication. Da möchte ich nur ganz kurz noch drauf eingehen. Ähm hier haben wir die Möglichkeit eine Beziehung zwischen zwei Ontapsystemen herzustellen, so dass unsere Kubernetusapplikation asynchron von einer Seite auf eine zweite Seite repliziert wird. habe, wenn die Beziehung besteht, auch die Möglichkeit einen Failover zu machen. Das heißt, das ganze am auf die andere Seite zuschwenken bzw. am Ende des Tages auch eine die Rear Replication einzustellen. Das heißt, wenn das Ganze gegenüber liegt, ähm das auch wieder zurückgespiegelt wird. zurückgespiegelt wird. zurückgespiegelt wird. Das einfach mal ähm in aller schnelle und Kürze ähm ein Update einfach zu geben. Was ist Astra Control? Ja, sehr schön. Vielen Dank für den Einblick in diese Welt. Ähm, die ersten Anmeldungen oder neuen Anmeldung für das Livelab am Donnerstag sind auch schnell reingekommen. Ich habe auch noch mal die Mail Adresse in den Chat gelegt. Ähm, wer Interesse hat, meldet sich gerne einmal ein. So,es sind Fragen gekommen. Genau. Eine Frage ist auch nur aufgetaucht, die wir glaub ich einmal flott beantworten, weil wir haben noch einen weiteren Gast und mit Blick auf die Uhr wollen wir den nicht noch länger warten lassen. Deswegen, was war die Frage? Die Frage ist Gott sei Dank sehr naheliegend. Wie kommen wir am besten an Astra Control ran und ist es kostenfrei nutzbar? Was kostet der Spaß? Also für ja, für Kunden ähm gibt es die Möglichkeit ähm Astra Control ähm 90 Tage zu testen. Ähm das kann jeder Kunde, der einen Support Account Zugang hat, ähm sich runterladen und testen. Ähm im Anschluss müssen wir halt einfach gucken, ähm wie das Ganze ähm verwendet werden soll. Das heißt, wie groß ist die Kubernetis Umgebung? Ähm, wie viel Kubernettes Workernodes haben wir, weil wir Astra Control dementsprechend auf wie CPUs lizensieren und da gibt's dann eine Subscription, die ein oder drei Jahre einfach hält und das müssen wir dann dementsprechend einfach mit dem Accountteam zusammen diskutieren, äh wie viel B wie CPUs und auch welche Laufzeit wir das Ganze machen wollen. Sehr schön. Also da die Message, wer Interesse da hat mehr wissen möchte, der Klassiker auf das Net Accountteam zugehen oder eben direkt auf den Hendrik oder den Fabian, da kriegen wir auf jeden Fall dann eine Lösung hin. Gut, dann erstmal vielen Dank an euch beide in Hamburg und auch an Chris mit dem Puschel und der Kamera, aber wir sind noch nicht ganz am Ende angekommen, ähm sondern jetzt geht's wie gesagt auf die andere Seite der Republik. Axel, magst du dich einmal kurz vorspielen? Wer bist du? Was machst du bei Netup und vor allen Dingen was hast du uns heute mitgebracht und noch viel interessanter, was hat das mit Containern zu tun? Ja, das mache ich absolut gerne. Äh hier spricht der Axel und ich mache vom Prinzip einen ähnlichen Job äh wie die beiden Vorredner, wie der Fabian und der Hendrik. Äh ich kümmere mich um das Net Cloud Portfolio, äh allerdings mitm Fokus auf unsere Cloudpartner bzw. Partner, die sich mit Cloud Services auch auseinandersetzen, denn auf denen stehen wir natürlich Rede und Antwort, was unsere neuen Produkte, unseren neuen Funktionalitäten und so weiter betrifft. Und hier reden wir an der Stelle nicht nur über Produkte, sondern tatsächlich dann über gesamtheitliche Lösungen, die dann letztenendes über unseren Partner dann auch in den Markt gebracht werden. Und ja, in solchen Dialogen, Gesprächen, Strategie Themen und so weiter bin ich halt auch eine technische Ressource und kenn somit relativ umfangreich auch unser Cloud Portfolio. Ähm, was habe ich mitgebracht? Genau einen kleinen Ausschnitt daraus. Warum habe ich genau den mitgebracht? Ich will es auch gleich mal zeigen, weil der sich mit dem Thema, das wir heute verfolgen, nämlich Kubernetis bzw. Container Workloads äh befasst und da letztenendes auch Optimierung vornehmen kann, die sich auch finanziell sehr stark auswirken. Und deswegen bin ich hier, denn wollen wir doch die Leute gar nicht weiter auf die Folter sparen. Optimierung und die Kosten ansparen klingt immer gut. Was hast du denn mitgebracht?Ja, dann zeige ich euch das mal. Also äh ich bin zweiteilig unterwegs. Ich mache am Anfang ein wenig Theorie mit euch. Ähm, das äh den Service, über den ich mit euch sprechen woll ist äh wollte, ist das ist der Service Spot Ocean. So ein Service, der sich im Kubernetisumfeldäh tummelt, um dort Kosten zu sparen. Findet sich in unserem Cloud Portfolio auch wieder. Und das hier ist vom Prinzip die ja ist immer ein Screenshot von unserer Cloud Central Webseite cloud.net.com network.com und ihr seht, alles das, was ich so eingekreist habe, hat auch mit Kubernetis zu tun und bringt seine Mehrwerte in Kubernetis Workloads mit. Viele davon haben wir ja gerade schon von Henrik und Fabian erläutert bekommen. Astra z.B., Spiel, aber auch Trident, die letztenendes was letztenendes dafür zuständig ist, die Storage Plattform anzubinden und Funktionalitäten dann eben auszuführen und so weiter. Ich will auf einen Service hinaus, den wir auf der linken Seite hier finden, in der linken Spalte unter Computer Operations und da findet sich ein Service Ocean und Ocean ist eben für das Thema Computtimierung und Kostenersparnisda. Ja, und genau darüber will ich letztenendes sprechen. Das heißt letztenendes über diesen Bereich hier. Und ich muss ein paar Vokabeln erstmal durchgehen mit äh mit äh ähm den Leuten, die zuhören, weil wir müssen wissen, was macht Spot denn da im Hintergrund, ne? Denn wenn dasich sag mal, wenn wir diese Informationen nicht haben, dann kann man nur teilweise verstehen, was denn hier mit den Spot Services durchgeführt wird. Und zwar haben wir grundsätzlich, wenn wir bei Hyperscalern arbeiten und Spot Ocean ist ein reiner Cloudice, der mit den Hyperscalern im Computereich arbeitet, äh haben wir grundsätzlich drei verschiedene Computertypen. Der erste Computyp ist eine sogenannte On Demand Instanz, die ich ja als Kunde immer buchen kann, wenn ich möchte und auch in dem Moment bezahle, wo sie online ist und ich die eben nicht bezahle, wenn ich sie wieder runterfahre. Das macht mich als Kunden natürlich mega flexibel, aber Flexibilität kostet Geld, ne? Ein Aufpreis letztenendes und insofern sind die On Demand Instanzen auch die teuersten Instanzen. Wenn man diese Flexibilität nicht braucht, dann kann man sich auch binden an einen Hyperscaler mit einer sogenannten Reserved Instanz oder VM. Und eine Reserved Instanz hat eben diese Flexibilität nicht mehr. Dann die binde ich mich in der Regel ein oder 3 Jahre, egal ob sie läuft oder nicht läuft, aber mit dem Vorteil, dass sie weitaus günstiger ist. Hier haben wir Einsparung von ungefähr 50%, ja, je nach Hyperscalar. Und die dritte Option und das ist die,äh jetzt auch für unseren Service Spot Ocean interessant ist, sind Spotin Instanzen. Spotinstanzen bedienen sich vom Prinzip aus den ganzen Computerhängen und Puffern, dieHyperscalar in ihren Rechenzentren haben, damit jeder Kunde auch zu jeder Zeit bedient werden kann, ne? Da stehen ja ganz viele Ressourcen. Viele davon liegen brach und solange sie brav liegen, kann ich sie als Spotinstanzkaufenzu einem sehrniedrigen Preis. Was bedeutet, ich zahle gerade mal 10 % von klassischen Rondimancomputerinstanzen, aber mit einem Risiko. Das Risiko heißt, innerhalb von kurzer Zeit und wir reden hier über Minuten, ist der Hyperscaler ähm ist es dem Hyperscaler erlaubt, diese Ressourcen wieder wegzunehmen. Und da muss man sich natürlich überlegen, was kann ich denn auf solche Instanzen legen? In der Regel werden hier Batchworkloads oder ähnliche Dinge drauf gelegt oder nicht zeitkritische Workloads. Ähm damit ja, ich sag mal das nicht wirklich zu einem Unternehmensiko mit Ausfallzeiten und so weiter führt. Also diese drei muss man kennen. Ich hoffe, ich habe das genug erläutert, weil mit diesen dreien arbeitet unser Service Spot. Denn was der Servicepot macht, ist das Verhältnis, dass wir draußen bei unserem Kunden finden. Nämlich ganz viele dieser Computerin Instanzen hier eigentlich auch super teuer sind. Einige dieser Commitments, also Reserved Instanzen, die ich gerade erklärt habe, äh die im Einsatz sind und nur ganz wenig Spotinstanzen, dieses Mischungsverhältnis dieses Mischungsverhältnis dieses Mischungsverhältnis quasi umzudrehen, sodass wir viel mehr Möglichkeit haben, diese kostengünstigen Spotinstanzen zu nutzen,weniger on dem Demand Computerin Instanzen zu nutzen und über dieses veränderte Mischungsverhältnis eben Kosten einsparen zu können. Ja, bis zu 90% Savings sind da drin und unser Spotservice ermöglicht es eben mit Automatismen und künstlicher Intelligenz im Hintergrund, viel Analytics und so weiter äh den Service so zur Verfügung zu stellen, dass ein SL an der Stelle eben nicht gerissen wird. Wie machen wir das? Wir beobachten den Markt. Das ist der erste Punkt. Also sprich, wir beobachten alle Spotinstanzen, dieHyperscaler weltweit zur Verfügung haben, sowohl Acher als auch Google in allen Regionen, in allen Rechenzentren und bauen dann letztenendes eine ganz große sogenannte Heatmap, wie wir sie hier auf der rechten Seite sehen. Bedeutet, wir erkennen Verfügbarkeiten, erkennen Verfügbarkeiten, erkennen Verfügbarkeiten, wir erkennen Anzahl von Verfügbarkeiten und dementsprechend können wir hier Temperaturen vergeben, die eben diese Verfügbarkeiten widerspiegeln. Und das stellen wir noch farblich da. Grün, gelb, rot, klassisches Ampelprinzip und alles, was grün ist, hat eine sehr hohe Verfügbarkeit gerade. Und das bedeutet, die können wir bedenkenlos buchen, ohne dass wir Angst haben, dass das äh System in den nächsten Stunden wieder weggenommen wird. Ja, das ist die Grundlage für unsere Entscheidungen, welche Instanzen wir nutzen. Und außerdemschauen wir quasi in Workloads hinein. Also, sprich, nehmen wir ein Kubernetes Workload, ja, und dann schauen wir in den Kubernetis Cluster rein und analysieren, was brauche ich denn überhaupt für eine Ressource? Und damit meine ich, welche Kapazitäten in Form von CPU Leeistung, welche Kapazitäten in Form von RAMleistung. Ja, das heißt, wir analysieren die Applikation und stellen fest, was wirklich an Ressource benötigt wird. Und nur diese Ressource nehmen wir, um sie in den Kubernetisclluster zur Verfügung zu stellen, um meine Applikation drauf laufen zu lassen. Und diese beiden Möglichkeiten, dass ich überhaupt Spotinstanzen nutzen kann für einen produktiven Workload und die dann auch noch so optimal von ihrer Ressourcenlast einsetze, bringt mich letztenendes dazu, dass ich eine viel optimalere ähm Kostenstruktur habe im Vergleich zu dem, was ganz klassisch draußen eigentlich oft genutzt wird, nämlich die Onemand Comput Instanzen, die eingesetzt werden immer vom gleichen Typ, unabhängig davon, was der Workload denn wirklich braucht. Wir haben sehr viel Verschwendung überhalb der Auslastungskurve und das was wir auf der rechten Seite sehen ist eben die Optimierung durch die Spot Services. Grundauslastungdecken wir mit Reserved Instanzen ab, also den Langläufern und eben die Spot Instanzen nutzen wir für hoch und runter skalierende Applikationen und Workloads. Und in der Summe kommen wir dann eben auf solche Einsparpotentiale. Das funktioniert auch ganz gut, ne? Ähm äh die Spot Services, die laufen heutzutage in über 55 Ländern dieser Welt. Aktuell haben wir über 500.000 Computknoten weltweit im Management der Spot Services. Das ist also schon richtiger Hammer, würde ich sagen, richtig viel. Äh was auch so ein bisschen mit Kundenvertrauen dann oder auf Kundenvertrauen zurückspiegelt. Und im Durchschnitt, das ist keine Marketingzahl, im Durchschnitt schaffen wir tatsächlich Computings von 73%. Ja, und das finde ich schon durchaus beeindruckend. Wenn man mal so ein Blick über die Kundenlandschaft wirft, dann sind da durchaus namenhafte Kunden dabei, die aber ganz unterschiedlich sind. Wir haben erstmal eine ganze Menge Kunden, das sehen wir hier. Aber auch vom Typ her klassische globale Enterpriseunternehmen. Kann sich jeder eins raussuchen, ich wette, die Namen hier sind bekannt, aber eben auch Startups, innovative Startups, die ganz klein angefangen haben und trotzdem das Thema Kosten natürlich sehr kritisch sehen ähm und die über die Sport Services eben auch zu unseren Kunden geworden sind. Also insofern funktionieren diese Services tatsächlich auch draußen im produktiven Umfeld, ja, und zwar ziemlich umfangreich, so wie es mal sagen. Gehen wir mal in die Technik. Was macht denn dieser Spot Ocean Service? Der Spot Ocean Service klingt sich in einen Kubernetisk ein mit einemsogenannten Ocean Operator. Das ist also ein eigener Pot, der von unserer Seite aus in den Kubernetiskluster installiert wird und er analysiert quasi die entsprechenden Ressourcen, Ressourcenbedarf und so weiter und gibt diese dann quasi an unseren Software Service Spot Ocean weiter und der kann dann quasi von außen eben die Dinge tun, die für das Thema Kostenoptimierung notwendig sind. eben die richtige Instanz zu den günstigsten Kosten an die richtige Applikation bringen. Ganz automatisiert, denn nämlich das ist das, was im Hintergrund passiert, automatisiertes passiert, automatisiertes ja Ressourcenmanagement. Das führt auf der einen Seite dazu, dass wir das Bild auf der linken Seite will ich kurz beschreiben, dass wir hier eine ideale Auslastungskurve haben. Hier sehen wir nämlich ein kubernetis Cluster, der im Bereich CPU und Memory sehr,gut ausgelastet ist, sprich 80 bis 90%zentige Auslastung der CPU und Memorie. Und es führt dazu, dass wir die Möglichkeit haben Möglichkeit haben Möglichkeit haben zu Workloads so zu verdichten, dass ich keine ja Leerläufe habe, will ich es mal sagen, ne? Das heißt, wenn ich erkenne, dass ich auf bestimmten Knoten noch Ressourcen frei habe, dann ist äh ist es möglich Mittels Spot ganz automatisiert diese Workloads oder diese Lücken letztenendes mit Workloads anderer Knoten zu füllen und ich dadurch die Option bekomme, einen kompletten Knoten einfach offline zu nehmen, weil die Ressourcen einfach so dicht wie möglich gepackt sind. Und somit arbeitet dieser Ocean Service auf drei verschiedenen Ebenen, ne? Das heißt einmal überhaupt die Möglichkeit durch Intelligenz, durch ständige Analys Analyse und Automatismus die ähäh die Spotin Instanzen zu nutzen. Wie gesagt, die günstigsten Instanzen, die mir der Hyperscaler zur Verfügung stellt.die richtigen Instanzen einzusetzen. Das ist das zweite Level. Dadurch, dass wir wissen, wie viel Ressourcen werden denn wirklich gebraucht, wie viel Memory, wie viel CPU, auch wie viel GPU, wenn wir es möchten, dass wir die richtigen äh Ressourcen an den Start bringen und dass wir dann, wenn die richtigen Ressourcen am Start sind, immer noch äh über das Thema Right sizing soextrem wie möglich Workloads verdichten können. Ja, und das sind drei Mechanismen in einem Service, die da arbeiten, um am Ende Kostenersparnis durchzuführen. in der Höhe, wie wir sie gerade auch benannt haben. Für Softwareentwickler ist es natürlich deswegen interessant, weil sie müssen sich überhaupt nicht mehr um Infrastrukturaspekte kümmern, ne? Ähm das war bisher nämlich der Fall. Sie mussten selber überlegen, welche Computknoten brauche ich denn für meinen Workload? wie skaliere ich, bis skaliere ich und so weiter. Und das Ganze dann auch noch kostentechnisch im Griff zu halten,die können ihre Applikation, ihre Kubernetisapplikation in die Hände von Spot Ocean geben und Spot Ocean kümmert sich im optimalsten Fall oder für den für den optimalsten Ressourcenbedarf, so will ich es mal sagen. Ja, und insofern können Applikationsentwickler das tun, äh worauf sie Lust haben, was sie machen möchen, nämlich Applikationen entwickeln und sich nicht um Infrastruktur kümmern. Das können wir komplett abnehmen. Um da mal so ein ja, wie soll ich sagen, einen ersten Eindruck auch äh zu vergeben, wie das Ganze denn aussieht, habe ich auch eine kleine Demo mitgebracht. Durch die husche ich mal ganz schnell. Meine Demoebung befindet sich in der AWS Cloud. Hier ist die Konsole offen. Ähm und in meiner AWS Cloud habe ich zwei Kubernetis Cluster laufen. Der eine nennt sich oder hat ein Workload Engine X. Ich glaube, das ist vielen bekannt, was Engine X ist.quasi eine Webserverapplikation mit Reverse Proxy und E-Mail Proxy Funktionalitäten, also grundsätzlich Protokollrooting Funktionalitäten. Und das andere ist ein WordPress. Kennt sicherlich auch jeder, ne? ja gerne genutzt für Blogs und Webseiten und so weiter.Diese beiden Kubernetis Cluster, die habe ich eingebunden und zwar in den Spot Ocean Service, den ich gerade vorgestellt habe, ne? Und das sehen wir auch hier. Ich wechsel jetzt mal in die Spotkonsoleund da sehen wir jetzt den ersten Engine X, da ist er, ne, den ich eingebunden habe. Und ich sehe hier auch schon, ich sag mal, meine ersten Informationen über diesen Klaster. aus wie viel Knoten besteht der und so weiter. Und ähm wie hoch ist denn mein Saving äh meinen meinSaving nicht Potenzial, sondern das, was ich erreicht habe an Saving? Und tatsächlich habe ich durch die Nutzung Spot Services, durch die Verwaltung der Spotservices es geschafft, meine Kosten für diesen Kubernetiskluster um 70% zu senken. Ja. Ähm, weiterhin finden sich hier noch verschiedene Statistiken von wegen, wenn ich mehrere Kubernetisplaster habe, wie verhält sich das im Vergleich und so weiter. Ich sehe aber auch noch viel mehr. Wenn ich mal einsteige in diesen einzelnen Kubernetiskluster, dann sehe ich hier Auslastung von CPU äh von Memory und so weiter. Auch hier sehe ich noch mal die Kosteneinsparungen. Was ich ebenfalls sehe, ist eine Kostenverteilung auf die jeweiligen Workloads, auf die jeweiligen Applikationen, die sich dann hier noch mal farblich darstellen, ne? sodass ich dann auch erkenne, ja, wer ist denn für die Kosten hier, also welche Applikation ganz genau in meinem Kubernetes Cluster ist denn für die Kosten hier gerade ursächlich verantwortlich? Ja, das all solche Analysen kann ich machen.Und was ich auch sehe ist halt aus welchen Ressourcen besteht mein kubernetes Cluster? Ich habe gerade schon von Engine X gesprochen. Der läuft hier, der läuft hier auf so fünf sogenannten Pods. Ja, und jeder dieser Pods braucht in dieser Definition hier vier 0,4 CPUs und auch 800 Megb RAM. Und je nachdem, wie das hoch und runter skaliert, reagiert er eben dann auch beim zur Verfügung stellen eben nicht. Das kann ich hier auch mal simulieren. Ich kann also auch mal sagen, ich möchte jetzt keine fünf Pods, sondern ich brauche vielleicht gerade doppelt so viel, weil meine Requests das benötigen. Ja, weil ich hal einen Webserver habe, auf den viele Leute zugreifen und so weiter. Dann möchte ich das mal hochskalieren und wir werden gleich noch sehen, was da an der Stelle passiert, ne? Ähm, Spot erkennt das nämlich, ja, äh und stellt fest, huch, meine aktuellen Ressourcen, die geben das so nicht her, ich muss hochskalieren, ne? Äh und durch dieses Hochskalieren reagiert er dann, er sagt: "Guck mal hier, ich brauche weitere Ressourcen." Und die weiteren Ressourcen sind dann in Form von Knoten. Letztenendes innerhalb des Kubernetes Clusters äh werden die hinzugefügt in Form von Spotinstanzen und zwar die Spotinstanzen, die am verfügbar, die am verfügbarsten sind auf Basis bei einer Heatmap, die ich von die ich am Anfang erklärt habe. Ja, das heißt, das sind die Entscheidungsgrundlagen. Welche Entscheidungsgrundlagen. Welche Ressource brauche ich? Wie bekomme ich die zur Verfügung gestellt und wie bekomme ich die am kostengünstigsten abgewickelt? Und das passiert ständig. So skaliert vom Prinzip quasi der Spot Ocean Service in meiner Kubernetisumgebung. Ja, und das funktioniert beim Hochskalieren und das funktioniert Rolle rückwärts natürlich auch beim runterskalieren. Ja, und dadurch, dass ich diese Möglichkeiten automatisiert zur Verfügung stelle, komme ich eben auf die entsprechenden Einsparpotentiale.Und das ist Spot Ocean. Und das finde ich ist für jeden Kunden interessant, der sich mit äh Kubernetis Technologie innerhalb der Hyperscaler beschäftigt. Ich hoffe, ich konnte das klar machen. M vielleicht noch zwei Punkte, irgendwas noch klarer zu machen. Ähm was kost es und wie kann ich sowas ausprobieren? Oh ja. Ähm fangen wir mal an mit was kostet es? Also, wenn ich es jetzt über Spitz sagen würde, es kostet eigentlich nichts, weil warumkann ich das so sagen? Ähm, wir analysieren das Kostensaving und nehmen vom Saving einen prozentualen Anteil. Bedeutet und zwar am Monatsende, das heißt, wir beobachten über ein Monat hinweg den Kubernetisk kluster, den wir managen, stellen am Ende fest, wir haben so und so viel Euros gespart und davon nehmen wir einen prozentualen Anteil. Wenn wir also nichts sparen, nehmen wir auch kein Geld. Das heißt, man kauft auch nicht die Katze im Sack. Ja, und das ist quasi das Bezahlmodell, das dahinter steckt, ne? Und das heißt, man kann eigentlich nur gewinnen, ne? die restlichen zweien ähm Moment, jetzt muss ich kurz rechnen, 28 62% so ähm äh sind dann tatsächlich für die Tasche des Kunden. Und wenn ich es ausprobieren will, das ist relativ einfach, ich gehe auf die Spotseite, lege mir ein entsprechenden Konto äh ein entsprechendes Konto an, mach das mal kurz. Spot IO ähm und dann kann ich loslegen, denn das einzige, was ich da angeben muss, ist mein Firmenname und meine E-Mailadresse. Ich muss keine Kreditkarte angeben, gar nichts. So, hier unten unter Signup kann ich das tun und in dem Moment, wo ich das gemacht habe, kann ich loslegen. Und die ersten20 virtuellen Maschinen oder Instanzen, die ich manage, die sind für mich sowieso kostenfrei als Kunde und dann habe ich gar nichts zu bezahlen. Ich hoffe, dass das die beiden Fragen beantwortet hat.sie perfekt beantwortet und wir sind auch perfekt in der Zeit. Mir bleibt dann auch noch mal an der Stelle zu sagen, Axel, vielen Dank für den kurzen Demoüberblick und auch noch mal nach Hamburg zurück an den Chris, den Hendrik und den Fabian auch an euch. Vielen,Dank. Ähm, gerne sehen wir uns nächsten Monat wieder, wenn es den um das Thema Spot im Detail geht, dann allerdings ohne Achse, weil der hat da so gesagt Urlaub. Da werden wir dann einen anderen Sprecher fürauftun. Also, wer das interessiert, gerne den nächsten Monat mit dabei. Und wie gesagt, dann am äh 6.10. dann die äh Lifelab Session für die Antu, aber jetzt erstmal diese Woche das Lifelab für das Astra Control. In dem Sinne bleibt man nur zu sagen, vielen,Dank an alle Beteiligten, vielen Dank Axel, vielen Dank an die Hamburger Kollegen, an das Publikum. Lasst es uns gerne wissen, wenn euch das heute gefallen hat, war das besser oder schlechter als die letzten Ausgaben ähm auch mit dem vor Ort, dann würden wir das sehr gerne auch wiederholen, dass wir auch Veranstaltungen auch vor Ort uns einja bringen, uns einmischen, um da dann auch die Kollegen, Kolleginnen, die dort präsentieren, auch noch mal abzuzwacken für eine Stunde hier äh Interview in der Runde. Hat der Interviewstyle heute gefallen, da gerne zu Feedback geben. Und ansonsten kann ich mich nur noch sagen, in Hamburg sagt man tschüss.
Persistenter Speicher in Containerumgebungen und die Herausforderungen des konsistenten Backups dieser Umgebung. Wir zeigen Lösungsansätze, Best Practice Empfehlungen und Neuigkeiten rund um diesen Themenkomplex.