BlueXP is now NetApp Console
Monitor and run hybrid cloud data services
[musik]So, ich habe es vermisst. Ich geb zu. Denn geh einmal die Folie bitte und damit dann herzlich willkommen in die Runde zu unserer diesen Ausgabe von Net Compact, unserer monatlichen Webcastreihe hier bei Netp immer am ersten Dienstag eines Monats und da gestern der erste Montag des Monats war heute vollgerechtig der erste Dienstag des Monats und deswegen treffen wir uns, glaube ich, auch nicht nur zufällig heute hier in der Runde. Ja, über was wollen wir heute reden? Ähm, wir würden oder wir wollen heute über das Thema AI Trorage äh ist der Titel reden. Was kann ich denn jetzt da genau mit machen? Ist immer ja so die Frage, die von unserer von Kundenseite an uns immer oft gestellt wird. Ich habe da was,habt ihr dafür? Ähm und wie betrifft das ganze Thema überhaupt Storage? Bevor ich mich aber jetzt ja verhaspel und schon zu viel Preis gebe, würde ich aber auch noch mal in die Runde hier bei uns Internet fragen, weil wir haben ja zwei Kollegen bzw. eine Kollegin, ein Kollege, der heute hier oder die heute hier unterstützen. Einmal die Sabrina.magst du einmal kurz auch hallo in die Runde sagen, dich vorstellen, was du be Netup machst? Sehr gerne. Hi, hallo zusammen. Ich bin Sabrina Kasper. Ich bin bei Netup zuständig für den Vertrieb und für das Go to Market von AI in Deutschland, Österreich, der Schweiz. Also wann immer es Projekte gibt, die in Richtung AI gehen und demnach dann auch Infrastruktur Storage Anforderungen mit sich ziehen, dann komme ich ins Spiel und natürlich Unterstütz von Gerhard. Ja, genau. Der Gerhard, der bin ich. Äh, ich bin AI Solution Architekt und mach alles so Richtung HPC, AI, Modern Data Analytics, unterstützt die liebe Sabrina bei den ganzen tiefen technischen Geschichten. Äh ja, wenn es etwas spezieller wird, richtig. Genau. Sehr schön. Merci.Ja, was ihr uns genau mitgebracht habt, das gucken wir uns gleich mal an im Detail. Ähm, bevor aber noch einmal die Wirbetrommel gerührt wird, ein mal bitte den Klick. Die Stamm äh Zuschauer kennen das Ganze schon. am Anfang ist noch ein bisschen die Werberunde. Ja, wem das hier heute gefallen hat, ähm ist natürlich auch gerne eingeladen zukünftig mit dabei zu sein. Unten findet ihr diverses der QR-Codes. Ähm, wer noch keine Einladung automatisiert bekommt, ist der Subscribe QR-Code der wichtigste. Da könnt ihr euch dann anmelden, dass ihr auch automatisiert hier die Einladung zu den Kompaktwcasts bekommt. Im nächsten Monat, das war einer zu schnell. Im nächsten Monat im Januar ähm gibt's den traditionellen Jujahresempfang. Äh wir werden über Unter 18 reden, was ja auch auf der Inson vorgestellt worden ist, wo wir auch schon im Releasekandidat sind. Ähm, auch da wird's einen Punkt, das wird sich ein bisschen mit heute überschneiden. Ähm, im Januar wird dann eher etwas tiefer dengehen mit einem Ontap Fokus heute mit dem AI Fokus das Disaggregated Storage Thema, aber das wird für den Januar denn derSchwerpunkt sein. Ja, die Linksammlung hab noch mal den Klick bitte. Ähm, gehe ich jetzt nicht näher drauf ein, das ist denn eher für die Videoaufzeichnung ähm verschiedenste Links, glaube ich. Chris packt sie nachher auch noch in den Chat. Wenn man das, was man heute hier gesehen hat, noch mal nachgucken möchte, sich angucken möchte, vergangene ähm Webcast anschauen möchte, im Lab mal rumspielen möchte etc. pp, ist das hier unsere Linksammlung dazu. Das war's dann auch schon, glaube ich, von meiner Seite für die Werbetrommel und für die Einleitung. Äh 5 Minuten, ja, gut, die haben wir uns jetzt mal dafür genommen, haben wir jetzt noch an die 55 Minuten Zeit. Ähm, wichtigster Punkt, wenn ihr Fragen habt, bitte stellt sie gleich während ähm des Podcast. Wir sind genug Leute hier, dass wir die beantworten können. Wenn es etwas größere, umfangreichere Fragen sind, werden wir uns am Ende auch noch mal ein paar Minuten Q&A rausnehmen, wo wir das jetzt beantworten. Aber wir wollen das heute hier doch bisschen lebendig gestalten. Das heißt, wenn ihr Fragen habt, nicht zögern, in die Tasten hauen. Wir werden das Ganze dann beantworten und wenn es auch passt, vielleicht an der einen oder anderen Stelle das Ganze dann auch live ähm auf der Tonspur. Alles klar, dann ein finaler Klick, den bin ich ruhig und ich würde sagen oder ich vermute mal der Gerhard heute beginnen. Nee, falsch. Vermutam50.[gelächter] Okay, sorry. Genau. Ich würde beginnen und vielleicht bevor wir in den Inhalt äh reinspringen noch mal ganz kurz, waserwartet heute euch heute? Im Prinzip äh werden wir über zwei Sachen sprechen, die äh beide Ankündigungen von unserer Insight in Las Vegas vor ja jetzt auch schon fast zwei Monaten sind. Ähm was wir im AI Kontext äh so Neues machen und wie wir eben das ganze Thema Storage, aber auch Thema Datenmanagement etc., was ja für AI unerlässlich ist, äh tatsächlich äh adressieren äh wollen und können und da einfach mal ein paar Einblicke geben und da wird dann Gerhard auch ein bisschen technisch tiefer direkt noch einsteigen.Zum Einstieg aber vielleicht äh noch mal, warummacht es eigentlich überhaupt Sinn, wenn wir über AI sprechen, gleich auch über Storage zu sprechen? Und ich denke, die Antwort hört ihr nicht das erste Mal von uns. Ähm tatsächlich, weil Daten im Prinzip unerlässlich sind für AI. Zum einen natürlich die Menge an Daten, die wir heutzutage haben, die wir managen müssen, die wir verwalten müssen, die wir auch brauchen beispielsweise, um große Modelle etc. zutrainieren, aber und das sehen wir eben vor allem auch im Bereich, wenn wir so ein bisschen über ja Enterprise AI sprechen, also nachher tatsächlich alles rund um Inferencing, äh um die Kombination sozusagen von beispielsweise LMs mit den eigenen Unternehmensdaten, dann geht's da ganz oft um Dinge wie den Zugriff auf die Daten, der muss schnell sein, der muss effizient sein, ich brauche die richtigen Daten, ich brauche relevante Daten, ich brauche aktuelle Daten. Und ich denke, das alles zeigt ja schon so ein bisschen, worum es hier gehen soll und warum wir da eben entsprechend inzwischen auch komplett andere Anforderungen an das ganze Thema Datenmanagement und an das Thema Storage ähm tatsächlich haben, wenn wir in Richtung AI schauen. Ähm ich habe gerade schon so ein bisschen über Training gesprochen. Ähm, nicht jeder trainiert eigene Modelle natürlich, ja, aber gerade in dem Kontext geht's natürlich viel um Skalierbarkeit, geht's viel um Performance. Die ganzen GPUs müssen ja entsprechend auch mit Daten gefüttert werden. Und meistens ist es halt bisher so, dass wenn man skalieren möchte, ähm dann äh ja, skaliert man hoch entsprechend, um Performance irgendwie zu erhöhen etc. Und das geht so ein bisschen immerHand in Hand. was nicht unbedingt bedeutet, dass es immer die effizienteste Art und Weise, das Ganze ähm zu machen ist. Gleichzeitig müssen wir natürlich sicherstellen ähm, dass wir 100% Uptime im Prinzip haben. Ja, weil wenn es eine Outage gibt, dann ähm ist es im Prinzip eine Verschwendung einer teuren GPU Ressource. Ja, die sind ja nicht gerade billig. Viele, die vielleicht schon ein bisschen angefangen haben, sich da mal Gedanken zu machen, ähm wissen auch ungefähr, was da in an Investment ähm auf euch zukommt. Ja, und entsprechend möchte ich natürlich sicherstellen, dass das Storage in dem Fall halt nicht das Bottleneck ist, das mich da zurückhält oder das zu einer sehrgeringen Auslastung beispielsweise von GPUs für hören regelmäßig Statements von irgendwie 5%, 10% etc., die diese GPUs nur ausgelastet sind, was in keinster Art und Weise natürlich ähm effizient ist. Ein anderes Thema, aber mal ähm abgesehen von der ja physischen Infrastruktur sozusagen, ist das ganze Thema Datenmanagement, was ich ja auch schon gesagt habe, ich brauche einen Überblick, welche Daten habe ich überhaupt, äh wo sind diese Daten, sind die aktuell? Wer hat Zugriffe beispielsweise? Und das ganze egal, wo meine Daten im Prinzip liegen, ja, egal ob sie jetzt onprem auf verschiedenste Infrastruktur im Rechenzentrum liegen, vielleicht ähm Daten auch in der Cloud liegen, ähm etc. Also im Idealfall hätte ich doch einfach eine Möglichkeit, wie ich das alles äh tatsächlich sehen könnte. Und wenn ich dann über Daten spreche, natürlich kommen dann Fragen wie Security, wie Data Governance, ähm etc. da dahinzu ähm gerade im Healthcare Bereich beispielsweise sehen wir das. Es können aber auch Finanzdaten sein. Es können jede Art von persönlichen Daten im Prinzip sein, die ich natürlich schützen möchte und wo es dann auch um Dinge geht, wie Zugriffsrechte, Zugriffskontrollen. Ja, ähm wiekann ich das im Prinzip gestalten und sicherstellen, dass nur diejenigen Zielgruppen beispielsweise auch, wenn wir Richtung Data Scientist schauen, tatsächlich Zugriff auf die Daten haben, die sie auch wirklich haben sollten und ähm eben nichts anderes. Und letztendlich ja Thema Kosten, Thema Return on Investment schwingt glaube ich immer mit. Zum einen natürlich geht's da um die Infrastruktur Investments, die getätigt werden. Das klang ja gerade schon so ein bisschen durch. Zum anderen aber sehen wir es natürlich auch, dass ganz viele dieser frühen AI Projekte und Piloten tatsächlich wieder eingestampft werden oder scheitern, weil nicht klar ist, was am Ende dann dabeirauskommt. Ja. Ähm, das kann beispielsweise sein, weil ich die Daten eben nicht ähm kosteneffizient managen kann, dass ich nicht den richtigen Zugriff zu den Daten habe. Das beispielsweise und auch das sehen wir immer wieder, unnötig viele Kopien von Datensätzen angefertigt werden im Rahmen von solchen Projekten, dass es einfach nicht effizient ist, diese Daten auszutauschen, hin und her äh zu schieben etc. Und auch da gibt's eben Möglichkeiten, wie ich das Ganze ein bisschen effizienter gestalten kann. Und das genau soll jetzt auch heute so ein bisschen unser Thema sein. Ähm Storage muss näher an E3 rücken oder umgekehrt. Was genau kann man sich denn da drunter vorstellen, Gerhard? vorstellen, Gerhard? vorstellen, Gerhard? Ja, äh das ist eine gute und berechtigte Frage und das Nette ist halt eben, dass jetzt über die Zeit hinweg sich die, sagen wir mal, die Bedeutung, die Qualität des Stockets sicher geändert hatte. Ähm, du hast ja selber auch gesagt, Sabrina, wir reden ja hier von Enterprise Create Storage und äh ich denke, man kann mit Fuken recht behaupten, dass der Workload AI mittlerweileangekommen ist in unserer Mitte von Workload. Das ist nicht mehr soein Unicorn, was spezielles äh in der Richtung, sondern es ist mittlerweilebusiness as usual fast, nur ist es halt eben ein bisschen spezieller als was manch andere Sachen angeht oder es umschließt viele von den verschiedenen Dingen bei der Sache. Äh genau, deswegen Enterprise great in der Richtung. Ähm, ist auch so im Prinzip, Sabrina, dass man sagt, okay, gerade das ist im Prinzip so das Wichtige, dass man sagen, ist es ein Standard geworden eigentlich. Es ist definitiv Standard geworden. Ich glaube, wir sprechen auch ähm mit äh niemandem, der nicht irgendwas in Richtung AI macht. Ja, und ich glaube, das ist genau auch das Thema, womit sich so die meisten tatsächlich ähm momentan irgendwie beschäftigen. Ja. beschäftigen.Ja.Äh ich was auch noch sich ein bisschen verändert hat über die Zeit ist, dass man sagt, es ist nicht nur so einwas zum Ausprobieren, zum Testen. Es ist mittlerweile Enterprise Create geworden. Das heißt, es sind Prozesse auf die Verlass sein müssen. Es gibt Entscheidungen, die mittlerweile schon in Firmen mit eingebunden sind. Man gibt ja, es gibt so auch sogar Schlagworte von Selfdriving Company in der Richtung. Also so wie äh, dass man sagt, ein Auto fährt selbst, eine Firma wird vielleicht auch irgendwann mal in Anführungszeichen selbst fahren, weil nämlich die AI Agents dann die Datenströme schneller und besser verarbeiten können. ist natürlich noch in ferner Zukunft bei der ganzen Geschichte, aber es ist halt eben auch interessant und was sich auch mittlerweile geändert hat und hatte ich auch letzt mal ein paar Diskussionen zu dem Thema, dass wenn man früher gesagt hat, na ja, also gerade bei so einem Training, dann äh lass ich das mal laufen und wenn dann irgendwas schief läuft, dann starten wir hal eben einfach wieder neu in längerer Zeit, die dann da ist.Was sich verändert hat, ist halt eben einfach die Kosten, die dabei entstehen, allein schon die Stromkosten und die Zeit äh die dann investiert werden muss, sass selbst, was wir beobachten konnten für klassischen Scratch Space, also im Prinzip Storage, das wo ich gar keine Erwartungshaltung an die Hand, das heißt, das kann versagen oder äh da mache ich halt eben einfach wieder neu selbst da mittlerweile man sagt, na ja, also eine höhere Verlässlichkeit ist wäre schon ganz gut, weil es tut dann doch weh, ne? Invest her. Ja, gut. Und äh was wir natürlich von Netup uns auch gedacht haben, ist wir haben ja ein wunderschönes Portfolio an verschiedenen äh Hilfsmitteln im Bereich Storage, Datenhaltung, Datenmanagement in der ganzen Sache. Ähm und da haben wir lange Zeit auch sehr gut z.B. auch mit Nvidia, die ganzen Zertifizierung, die haben wir mit unserem Unified Storage halt eben mit gemacht. Und beim Unified Storage, da haben wir halt eben als Plattform einfach alles mit drauf, was man so verwenden kann für die ganzen Skalierungen. Ähm klassischer AI Workload ist es einfach eine solide und super Lösung. Auch jetzt gerade, wenn man in Richtung reines Inferencing schaut. Das heißt, wenn du wirklich jetzt da, wo die Values entstehen, äh sind kleine Storage Systeme für Repositories und kleinere Datenbanken und sowas äh voll in Ordnung. Und auch, dass wir jetzt haben dedicated Blog, also wir haben durchaus auch Workloads im AI oder Modern Data Analytics Umfeld, die halt eben sagen, na ja, ich mache alles mit einer Datenbank. Ich habe da dann in der Kassra oder Open Search oder eine andere große Datenbank, wo ich meine ganzen Sensordaten halt eben rein ploppe und dann kann ich das halt eben auch um Block Storage laufen. Aber was wir halt eben festgestellt haben, ist, dass dieses Scale Out und Sabrina hast du ja vorhin schon auch schon beschrieben gehabt, so ein Thema ist durchaus und auch Geschwindigkeit mittlerweile Thema bekommen, weil nämlich die GPUs auch schlicht und ergreifend größer, schneller, weiter sind und mal auch mehr Daten durchpumpen kann.Das ist halt eben eine Geschichte und Netup hat schon vor langer Zeit die Idee gehabt Disagated zu adressieren in der Richtung. Ich kann mich gut dran erinnern und okay, wie könnte dann so eine Architektur aussehen? Und es war halt eben jetzt muss man sagen, genau jetzt die Zeit auch reif mit so einer Idee zu kommen, das umzusetzen und auf der Inside als wir vorgestellt haben ist ein Disgegated. Was man nämlich haben wollen, ist eine Plattform, deren Ziel gerade AI Workloads sind und die sehr gut skalieren kann über die ganzen Sachen. Und was bedeutet im Prinzip skalieren? Äh, wenn man jetzt mal auf der Hardwareebene bleibt von dem Storage System, bedeutet einfach, dass ich sag, ich habe hier eine Möglichkeit mir Systeme hinzustellen. Also, ich habe den Storage Pool, da wo ich die Daten ablege und die Notes, die für mich im Prinzip nachher Protokollumsetzung machen, die ganzen Metadatenhändling und so weiter und so fort, die habe ich voneinander getrennt. Dazwischen ist ein Highperformance Bus System und deswegen kann ich jetzt unabhängig voneinander äh arbeiten und kann dann hingehen und hab dann trotz alledem, weil ich mein Ontap habe, auch diese ganzen Enterprise Funktionalitäten, die ich dort mit anbiete, aber halt eben diese hohe Flexibilität von diesem ganzen System. Wir haben schon gesehen manche Sachen, also gerade Security ist mittlerweile auch das Thema auch im Eierumfeld, weil einfach die Daten so wichtig geworden sind. Also es ist sensitive Prozesse mit sensitiven Daten und deswegen ist Security auch sehrwichtig bei der ganzen Geschichte. Und was wir uns natürlich auch mit überlegt haben, ist äh war die Überlegung, wie kann der Storage noch ein bisschen näher im Prinzip rankommen an äh diese AI Prozesse. Also wir reden ja wirklich hier von Implementieren, von Inferenzing, von Prozessen und da haben wir uns nämlich auch überlegt, ja, es wäre ganz geschickt, wenn wir ein bisschen mehr Insights bekommen können über unsere Daten und damit arbeiten können. Da ist noch kurz eine Frage aufgekommen, wenn ich mir die heutigen Nvidia B300 ansehe mit den 2in5 TB und 32 TB Displays, wann und warum brauche ich dann noch Storage darunter? Vor allem, wenn ich eine B300 habe? Das ist eine sehr schöne Frage. Äh ursprünglich und das hat man bei den ganzen DGX Systemen gesehen gehabt bei den Nvidia B300. Der interne Storage ist bei Default einfach konfiguriert als Cash in dem Bereich. Das heißt, es gibt äh gerade für NFS gibt einen Linux Service, der heißt Cashfiles. D, der sollte bei Default eingeschaltet sein und ich kann dann die verschiedenen Workloads gerade für NFS oder für andere Geschichten dort direkt ablegen und dieses Cashing mit verwenden. Dafür war der Storage auch ursprünglich ab vorgesehen, auch wenn ich nur ein paar Maschinen habe, dass ich sag, ich nehme interne Platten. Die Herausforderung kommt halt eben dann, sobald ich sehr flexible Workloads habe, Kubernetis Cluster Deployments, wo ich dann über PVCs mir dedizierten Storage Datensätze zur Verfügung stellen lassen möchte und das sehr volatil in meinem System habe, dann ist natürlich in zentraler Storage auch ganz wichtig. Und deswegensehen ja auch alle Nvidia Zertifizierungen, sei es jetzt SpaceP oder SuperPod und sowas in der Art, immer ein Storage vor, den man hernimmt, Highperformance Storage, aber auch ein Nass Storage, weil nämlich gerade Repositories und so weiter und so fort. Das sind Sachen, die will man nicht unbedingt von lokalen Platten aus handhaben, dass die so groß sind von Nvidia Designed. Okay, man kann sich natürlich auch andere HGX Systeme oder sich selber Systeme zusammenstellen, die einfach interne plattenmäßig kleiner sind. Also, da ist man natürlich auch äh easy vorgesehen, aber das ist, glaube ich, so die Antwort von die Frage. Ähm ja, weil es gerade auch gut passt an der Stelle, ähm auch noch eine weitere Frage, die aufgetaucht ist. Ähm wie integrieren wir uns als NetP in Konzept von Dateifreigabe oder Datenfreigaben in Produktionsbereichen, also wo Daten erzeugt werden, ähm in den Anbindungen, in denen diese Daten konsumiert werden, Ergebnisse generieren, die dann wieder zentralisiert zur Verfügung gestellt werden sollen. Wie klinken wir uns da ein? oder würde das den Rahmen jetzt her sprengen alsAntwort? Na ja, jetzt können wir gucken, das können wir vielleicht am Schluss noch mal ein bisschen mit bearbeiten, weil im Endeffekt ist das die klassische Data Pipeline und ich glaube, ich habe sogar eine Slide dazu von der ganzen Geschichte.Alles klar. Also, anonymer Zuschauer, zumindest heißt bei mir so ähm warte bis zum Ende, dann ähm werden wir da was drüber reden, drüber reden, drüber reden, richtig? Genau. Und ich sehe schon äh wir können die 50 Minuten ohne Probleme füllen bei der ganzen Sachen. Deswegen äh mal kurz so die Kurpunkte von dieser Architektur auf X. Also, wir wollen diese Silos ähm verringern oder eliminieren. Wir haben diese Verfügbarkeit von der Ont Plattform. Ähm und wir haben halt eben Zukunft ähmit damit generiert, man sagen kann. Also der AFX Plattform, weil es ja Ontap ist,so wie die Unified Plattform, kann genauso konsumiert werden. Hat halt eben einfach die Vorteile von diesem Scale Out und noch ein paar mehr Vorteile, die einfach die Architektur mit sich bringt bei der Sache. Und was mir schon im Prinzip da auch mit adressieren, wenn man Training, Inferencing, den solche Workloads wie autonomous Driving, Medical Imaging, Generative AI undentic AI, was ja momentan gerade so der Hip ist, wo man sagt AI, jeder probiert damit rum bei der ganzen Geschichte. Dann haben wir so Schlagwort MCP, komme ich nachher auch noch mit dazu. Äh ist aber nicht das Master Controlprogramm damit gemeint für alle diejenigen, die Tron geguckt haben, also die ein bisschen älter sind als ich. Genau. Ähm Independent Scaling, ich hatte vorhin schon mal gesagt gehabt, da ist das Wichtige, dass man sagen kann, wir haben Performance, wir haben Capacity, die man entscheiden kann und die Shelves, ich kann also dann auch entscheiden, mal mit der geringeren Performance loszulaufen und kann dann sagen, okay, ich brauche bisschen mehr oder ich sag, ich brauche mehr Storage und bekomme dann automatisch mehr mit äh Performance bei der ganzen Geschichte. Und das Interessante dabei ist halt eben auch, wie ich schon mal angesprochen haben, dieses automatische Balancing ist wesentlich einfacher, weil bei unserer Kapazität ist es einfach so, man braucht sich um gar nichts kümmern, großer Storage Plop und dort werden die Daten halt eben ab abgelegt und unsere Logik im Hintergrund verteilt die Daten am besten so wie es von den Systemen konsumiert werden kann. Und das Schöne ist bei diesen, weil wir jetzt zusätliche Notes drauf machen, haben wir dann so ein Linear Scaling. Und ähm wenn wir jetzt Performance anschauen von der Platte, das ist immer ganz wichtig, wenn wir hier die Diskussion anfangen von wegen Performance Racing sowas in der Art. Ähm, oft kriegt man auch Zahlen präsentiert, die sehrhoch sind, sowas in der Art, also gerade für GPU direkt Storage oder andere Geschichten. Das sind meistens dann auch Daten, die dann direkt aus Memory rausgelesen werden. Will nicht heißen, dass wir die Performance nicht erreichen können. Klar, erreichen wir auf jeden Fall. Aber wenn ich sagen kann, okay, meine Minimum Performance, die ich von Platte generieren kann, ist momentan bei diesen Systemen, die wir haben. Wenn ich so zwe Systeme habe, den so 70 GB lesend, das ist schon mal eine gute Ansage, wenn ich denn so hohen Durchsatz brauche. Und wir starten mit vier von den Systemen. heißt vier Systeme, ein zwei Shelves, das ist so die Startkonfiguration ist halt eben dann auch für Workloads, wo ich sagen kann, oh, ich kann hier 140 GB gut gebrauchen und da muss man halt eben dann auch schauen, in welche Richtung das Ganze läuft. Aber das ist halt eben das praktische bei der ganzen Geschichte hier. ähmKapazität, wie ich schon gesagt habe, wir haben einen großen Pool, wir haben ähm die ganzen Kapazitäten zur Verfügung. Wenn man neue Shelf drauf dran machen, wird es automatisch eingebunden. Also ist alles automatisiert, mehr Platten, mehr Performance automatisch. Und ähm was wir halt eben dann auch machen können, ist dieSchönheit, dass wir den Storage da haben und unsere Notes sind einfach nur Pointers auf die Daten, die dann da liegen. Das heißt, diese Allokation, wir reden immer noch von Volumes, Flexgroups, wenn man im Netup bleiben, also dort, wo wir die Daten abspeichern, auf die wird einfach per Pointer gezeichnet und das heißt, wenn wir halt eben dann feststellen, dass eine Note vielleicht eine zu viel Last hat oder wenn eine Note mal ausfällt, dann können wir einfach die Pointer verschieben und auf andere Notes und die können dann auf die Daten zugreifen, sodass ich dann sehräh einfache Art und Weise hab, wie ich diese Dynamik reinbringe in die ganzen Geschichten. Und was wir halt eben auch gemacht haben, ist diese immens großen ähm Raidgruppen, mit denen wir arbeiten, sodass wir dann auch was die Auslastung oder die Qualität von diesen ähm sorry Pool von der Flash angeht wesentlich besser sind. Und ich hatte schon mal gesagt gerade, dieses automatische Balancing ist eine Sache, die wir mit dieser Architektur halt eben machen können. Wir können die Volumes verschieben, wir können schauen, wie die Daten verteilt sind. Wenn man neue äh Storage Shelfs ranpacken, dann wird es im Prinzip neu eingebunden und die Daten werden neu verteilt, sodass wir und das ist wann eins von diesen Architekturzielen wir gemacht haben mit dem AFX ist, dass wir gesagt haben, wir wollen hier ein sich selbst balancierendes System haben, was für viele Workloads sehr interessant sein kann. Vor allem dann auch nicht nur rein auf Volume Ebene, sondern wir können das mittlerweile halt eben auch auf Ebene von Dateien machen. Wir können die, wenn die größer sind, zerschneiden in kleinen Schnüsel, verteilen die auf verschiedene Volumes. Wenn wir feststellen, dass eine Datei heiß geworden ist, können wir das als automatischer Prozess triggern und es ist ganz geschickt. Und für alle diejenigen, die ein bisschen Hardware lieben, bei der Sache ist die, dass wir haben natürlich ein Controller. Manche kennen den, das ist der denken können von AFF A1K, der hat jetzt den netten Namen AFX 1K bekommen. Wir haben ein bisschen Veränderung drin vorgenommen, da haben wir eine größere Bootplatte drin für die Hardware Junkies in der Richtung und ist halt eben auch die erste Plattform, auf die wir dann z.B. auch mal 400 GB mit reinbringen werden, was wir erwarten, dass wir im Dezember haben. Das heißt, also gerade für solche großen Installationen ist es schon attraktiv, aber halt eben auch für die kleineren Sachen, mit den man unabhängig sein möchte. Und wir haben dann die Shelves, die im Vergleich zur aktuellen Shelves, die wir haben, ungefähr dreimal so schnell sind. Also eine coole Sache zum Scale, zum Arbeiten und weil es Ontap ist, passt halt eben dieses Ökosystem halt eben rein. Äh, das heißt, wir können da Tiering wird mit dazu kommen, dass wir das nehmen können mit Storage Kit. Wir können klassisches mitm Unified Storage,Virtual Machine, Flex Cash all die netten Features, die wir haben mit dem Storage, den der Cloud ist. Also, es ist ein Bestandteil unserer Familie ähm für ja unsere Familie für Hybrid Cloud Anwendungen ist halt eben einfach vomFokus her bisschen schneller höher weiter man schon sagen kann. Genau. Eine Idee noch dazu? Anmerkung Sabrina vielleicht von deiner Seite, was du so cool findest da dran. Also kling klingt ja alles erstmal gut. Ähm,kann man denn direkt anfangen? Äh, ja, direkt anfangen ist genau die Geschichte. Wir ähm haben jetzt auch gerade mit der 9181 Releasekandidat, die wir da haben, veröffentlichen, kann man mit großen Sachen anfangen. Mit der 9171 ist es schon freigegeben. Das heißt auch das Interessante, dass auch die Early Adapter, die diese Systeme getestet haben, ähm schon recht früh losgelaufen sind im August. Das heißt, man kann direkt damit loslegen und das einsetzen und integrieren bei der ganzen Geschichte, die wir da haben. Also, das funktioniert. Mhm. funktioniert.Mhm. Aufruf an der Stelle, wenn in der Runde hier jemand ist, der das mal ausprobieren möchte, ich glaube, dass Sabrina sich über eine E-Mail oder ein Anruf freuen wird. [gelächter]Sehr gerne. Weil das eben Dinge sind, ich bin ja mal riesen Verfechter von vom Lap on Demand. Ähm, manche Dinge, wenn es nur um das Reite Zeigen geht, kann man glaube ich auch da zeigen. Manche Dinge müsste man vielleicht dann auch äh mit dter Hardware machen oder bei uns in dem in ein POC Lab. Deswegen, wenn ihr da was habt, einfach auf Sabrina zugehen. Ähm oder wenn ihr keine Kontaktdaten habt von Sabrina, einfach auf euer Net Ansprechpartner, Ansprechpartnerin Ansprechpartner, Ansprechpartnerin zugehen. Jeder hat ja in der Runde einen, dann können wir da den Kontakt herstellen.Genau.Sehr gerne. Ja.Und ähm jetzt habe ich noch mal kurz reingeschaut gehabt von wegen denSlides, die wir haben mit der ganzen Einbindung. Äh dann wollen wir einfach die eine Frage, die gestellt worden ist, hier ein bisschen positionieren. Wie fügen wir uns denn in diesen ganzen Kontext sein? Im Prinzip kann man sagen, genauso wie wir es mit den anderen Systemen halt eben auch getan haben bei der ganzen Geschichte. Und zwar muss man es immer so vorstellen, also was wir gerade im AI Umfeld von Netup betrachten wollen, ist diesen Kon diesen kompletten Life Cycle von Daten. Das ist im Prinzip das, wo wir dann reinschauen. Äh haben wir auch spezielle Folien drüber, die man mit adressieren kann, aber um es mal kurz so anzureißen, deswegen habe ich gesagt HPCEI Modern Date Analytics, wo ich mich drum kümmer bei der ganzen Geschichte. Heißt, wir schauen auch an, okay, wo kommen die Daten her? Klassisches Data Ingestion, äh, die da ist, äh sind Sensordaten, sind es Daten, die von der Datenbank herkommen oder was auch immer, so dass man sagen kann, okay, wie speichert man die Daten halt eben besten ab? Wäre es dann vielleicht ein Object Storage, den man dann hernimmt für die ganzen Geschichte oder ist es klassisches Filervice? Ist irgendwas gemischtes bei der Geschichte und wie werden die Daten dann ähm verarbeitet und integriert. Da ist es dann, da haben wir auch Lösung zu sagen, wie kann ich z.B. Kafka Workstream und äh ähm äh ähm äh ähm auf Storage äh deployen. Wie kann ich große sogar KFK Tiering solche Geschichten mitmachen? mache ich ein Object Storage und das Phil ist dabei halt eben, dass ich ja mit dieser neuen Plattform und auch mit der Unify Plattform S3 auch mit anbiete, also diese Object Duality ist gegeben, sass dann gerade wenn ich sage, ich habe verunterschiedlichte Workload, ich mache mir so ein Art Data Lake, den ich mir kreieren möchte, sammel die ganzen Daten und dann kommen wir mit der klassischen ETL Pipeline, die wir dann da haben. Und für die ITL Pipeline verwende ich vielleicht jetzt irgendwelche Spark Prozesse oder baue die irgendwie in den ML Flow mit rein und sowas in der Art. Klassisch Connectivity, die wir haben, ist natürlich über unsere Protokolle, das wä jetzt NFS, SMB oder S3. Das heißt, das ist die Schnittstelle, die da ist.Aber was wir halt eben auch machen und das ist gerade so die diese tolle Einbindung ist, die meisten AI Workloads basieren ja auch auf Kubanites und da haben wir einen wunderschönen tollen Treiber, der CSI Treiber, der heißt Trident, den gibt's kostenlos, kann man sich auf G runterladen und den kann integrieren, sei es jetzt in Ophift oder in irgendwelche anderen Kubanetes Systeme mit Ranger und der gibt dem Kubanetes Administrator, dem Data Engineieur die Möglichkeit, diese diesen gesamten Storage halt eben automatisiert zu verarbeiten, was wenn ich was anlegen will, was klonen will, was ich zur Verfügung stellen möchte und so weiter in Handover innerhalb vom Kluster. Also ich kann allein über den CSI Treiber treitend könnten wir eine komplett eigene Session machen, was wir alles damit treiben können. Das ist eine Möglichkeit Integration. Dann haben wir noch dazu im Prinzip Protection. Wir können komplette Kubernetis Cluster sichern, also Snapshots davon generieren und haben z.B. mit unseren Sidekicks, die Netup Insta Cluster auch die Möglichkeit so gerade Open Source Themen anzusprechen. Also, ich habe schon gesagt, Kafka,Connect, wie kann ich sowas managen, Open Search, Cassantra,Clickhouse Implementierungen, Key Value Databases mit aufbauen und das ist ja gerade und das ist fast schon wieder der Übergang das Interessante zu sagen, dass wir mittlerweile mit klassischen Datenbanken, Open Source Datenbanken, die unterstützen alle Vektordatenund da sind wir schon in diesen AI Prozessen zu sagen, okay, wie deploy ich Inferencing denken, wie mache ich das ganze, da können wir alles helfen, weil so Schlagworte, wenn man mal einfach so reinwirft, so Key Value Cashing, solche Geschichten, das ist alles im Inferencing Bereich, wo wir Technical Papers haben und wir haben ein eine Tonne an Informationsmaterial, wie wir in Cloud Services integrieren, mit anderen Plattformen integrieren, die Kooperation, die wir haben, wie z.B. mit Domino Data Lab und anderen Geschichten. Das ist also von der Schnittstelle her bieten wir sehr viel an zum Integrieren. Ichdenke gerade für denjenigen oder diejenige, die Frage gestellt hat, da können wir ganz gut reinpacken. Und was neu ist, was wir jetzt auch gemacht haben mit der AFX Plattform ist zu sagen, ich will den Storage, wie man schon gesagt hat, noch näher ranrücken an AI und am geschicktesten dafür ist natürlich, dass ich sage, ich habe eine Metadata Engine. Das heißt, ich lerne, was ich am Storage zur Verfügung stelle, was für Daten habe ich und ich kann darin suchen, damit ich mir im Endeffekt nachher daraus meinen Datensatz zusammenstellen kann, dass ich verwende fürStarburstz.B., die ich damit arbeiten kann oder ich kann Tremio oben drauf setzen, äh kann suchen damit machen. Hatte ich bekomme eine eigene Metadeta Search Engine und kann damit ein Katalog machen, kann Tagging machen, kann zusätzliche Information an meine Daten direkt ranschmeißen, was alles gespeichert wird bei uns im Klaster. Das heißt, ich habe schon den nächst den ersten Schritt in Richtung halt eben ähm Datensuche. Und was ich dann noch mit dazu machen kann, ist, dass ich dann das einbinden kann in Prozesse. Also, ich kann das Training Sigur halten, indem ich mir die Daten zusammenstelle und da rausfiltern kann. Ich kann mir aber auch im Prinzip für Inferencing wie ähm Re Services, also Trieval Augmented Generation mir aus meinen Daten direkt auf meinem Storage liegen, effizient eine Vektordatenbank generieren, die ich dann über EPIs, wie man es dann hier auch so schön sehen kann, ähm mit API in meine ganzen Prozesse integrieren kann. Das ist dann eine Vorteil, wo man sagen, also enger kann man dann kaum noch ranrücken ähm an die ganzen AI Prozesse, weil wir dann mit unseren Daten dadirekt ein Mehrwert bringen in dem Umfeld und eine sehr flexible Plattform generieren. Gut,wie sieht es aus? bisschenkonkreter. Und zwar haben wir uns gedacht, wir haben ähm im Anfang wird's eine Plattform geben ähm mit eigener Netup Hardware, wenn man möchte. Das sind die DX50er, drei Stück ist ja schließlich ein Kubernites Cluster mit GPUs innen drin, weil wir müssen schließlich Inferenzing machen und solche Geschichten und darauf haben wir dann verschiedene Services, die wir abgebildet haben und laufen lassen, weil wir festgestellt haben, dass der klassische Data Ingenieurier Data Scientist hat eben die rüen Fragen, er möchte seine Daten erstmal finden und verstehen, also Semantic Search und solche Geschichten. Ich will sie aber auch updaten können die ganze Zeit oder ich sag das ist statisch, aber meistens ist es so, dass gerade wenn ich mir eine Reatenbank generiere, die dann als Chatbot Basis dient für ein Large Language Model, dann möchte ich natürlich, wenn jetzt in meinem Pool an Handbüchern, sagen wir mal so, neue Handbücher reingeworfen werden, dass die natürlich automatisiert in meiner Vektordatenbank dann äh landen und zur Verfügung gestellt werden. Ja, genau. UndSecurity Governments, Anonymisation, Dateien ausblenden und so weiter und so fort ist natürlich ganz wichtiges Thema. Guardrailing ist da der klassische Begriff dafür und ähm die Daten dann transformieren in äh alle möglichen Dinge, wie ich sie damit arbeiten möchte, zusammenstellen und so weiter und so fort. Ähm und dafür haben wir dann verschiedene Tools. Es gibt also die Metadata Engine, es gibt das Data Synk, wir haben den Data Guardrails und den Data Corator. Und zwar ist es jetzt so, wenn ich natürlich aber auch eine UI dafür für alle, die eine UI brauchen, in so einem Cluster habe ich meinen klassischenSystem Manager und ich habe dann eine GUI, die gibt mir die Möglichkeit also Data Guard Rails und Data Creator aufzurufen, weil das sind im Prinzip so die automatischen Frontends, die dann Data Synk und den Metadata Engine triggern in der ganzen Richtung. in der Zusammenstellung. Das ist für uns dann auch das Wichtige dabei. Genau. Und wie man auch sehen kann, ich genau gestern bin ich noch mal vom Kollegen gefragt worden, na ja, wenn ich jetzt Misstrahl einsetzen möchte und sowas drum und dran, ist es ein Problem für uns oder sowas? Nee, weil im Prinzip das ist mein Large Language Model, das habe ich deployed in meiner Gentic AI oder meiner mein Prozessflow und die Verbindung ist ein API Call, ne? die ich dann auf meine Vektordatenbank habe, die ich damit integriere. Das heißt, da ist man sehrflexibel bei der ganzen Geschichte, die man da hat. Ja, gut. Und wie sieht das aus? Die Metadeta Engine, wir hatten ja auch gesagt gehabt, okay, für was ist sie? Suche Daten, ich versuche die Daten zu verstehen, ähm will darauf zugreifen können und wir hatten auf unserer Netup Inside eine richtig schöne Session auch gehabt, gerade mit für alle, die es zumindest mal kennen, also Starburst ist so ein junges Unternehmen, die so eine Plattform liefern, um Daten zu kuratieren, zusammenzusammeln, zur Verfügung zu stellen und darauf meine Prozesse laufen zu lassen und ähm können die dann halt eben direkt verb verbinden mit unserer Metad Search und das können wir mit vielen anderen Dingen machen. Das heißt, also da können wir, das war auch die Frage auch darüber integrieren, indem wir einfach dieses Wissen um die Metadaten, um die Search Engine Semantic Search mitintegrieren und anderen Applikationen zur Verfügung stellen bei der ganzen Sache. Und das ist halt eben dann auch schon optimiert, weil wir ja bei uns in unserem internen System arbeiten und das synchronisieren bei der ganzen Sache. Bei dem Data Syn ist halt eben auch das elegante und wir dürfen auch dran denken, wir haben ja auch so Prozesse wie unsere Snapshots undunsere ähm Snapd ähm Konfiguration, wo wir selber ja schon wissen, was sind die großen Unterschiede, wo hat sich was verändert, äh wie läuft das Ganze, also auch ähnliche Funktionalitäten, die wir dann auch haben für Randomware Protection und so weiter und so fort. Also wir kennen unsere Daten, wir wissen, was sich verändert hat, welche Hots und das. Diese Daten können wir halt eben hernehmen, um diesen Syn zu triggern und auch zu sagen, okay, ich passe das Ganze an. Und interessant dabei ist natürlich auch, weil wir ja auch z.B. mit Snapshots arbeiten, dass wir sagen können, okay, ich habe hier so ein Versionsstand von äh von Daten, die ich mal hatte, kann darauf wieder zurückgehen, kann das mit integrieren und da sind wir dann auch bei solchen Sachen wie unserem Data Tool Kit ist auch kostenlos, kann man auf GitHub runterladen, ist ein äh Python Library, die es ermöglicht, also Datenhandhabung zu machen, Volumes zu kreieren, Snapshots zu machen und das kann ganz leicht aus dem Jupiter Notebook hergenommen werden, arbeitet mit Kubannetis zusammen. Und das coole beim Datait aktuell auch ist natürlich, dass wir da ein MCP Server dafür auch geschrieben haben. Das heißt, das können wir über MCP triggern. Es ist vorgesehen, dass diese AI Data Engine, wo ich gerade spreche, auch im Prinzip eine MCP Integration bekommt. Wir haben Harvest als Data Monitoring, auch schon MCP Server äh geschenkt. gegönnt, wie man so sagen kann, für alle diejenigen, die im Jahr 2026 sich jetzt voll in dieses Gentic AI hineinstürzen wollen, auch da wird man et sehen und dann ist natürlich so eine Plattform ganz geschickt, die das dann ein bisschen koppeltaus dem off ähm wann kann man damit rechnen und ich glaube, ich kann auch schon hier an der Stelle geben, wann das ganze auch für Dinge einsetzbar ist, die nicht AFX heißen. Ähm heißen. Ähm heißen. Ähm Dinge, die in der Zukunft passieren, können wir hier in der Runde glaube ich relativ schwer beantworten. Äh bter Verständnis für, dass wir Roadmap Items, wie sie bei uns Internet heißen, hier nicht publik machen können. Wenn Interesse an Details an NDL Information besteht, geht da auf euer Netup Ansprechpartner zu. Die können dann schauen, dass wir dierte Sessions aufsetzen, wo man das in deutlich kleinerer Runde als jetzt hier vor riesigen Publikum ähm dann kommuniziert ähm weil bestimmte ja rechtliche Bedingungen dafür herrschen müssen. Geht auf die Leute zu, die können euch dann an der Stelle da weiterhelfen, wenn euch dieser Ausblick wichtig ist. Genau. Ja, vollkommen recht. Ich habe eine Slide drin, die so eineVision zeigt. Vision. Also jetzt nicht nach Helmut Schmidt, den man gesagt hat, wer Vision hat, soll es im Arzt gehen an sich, sondern halt eben in der Richtung zu sagen, okay, wir haben auf der letzten Inson Visionen geteilt oder auf der vorletzten muss ich jetzt wiederum sagen und diese Vision wurde Realität auf der jetzigen Inside mit der AFX und der AIDI, die Vertragen haben. Nichtdestotrotz denn diese übergreifenden Visionen, die wir damals schon hatten, äh sind noch vom Bestand und man kann davon ausgehen, dass so wie die einen Visionen Realität wurden, werden die anderen auch Realität, würde ich mal so formulieren. Darf ich das so, Bennet? Ist es so das klingtpolitisch, glaube ich, korrekt. [gelächter] korrekt. [gelächter] korrekt. [gelächter] Genau.Jo. Datunk. Genau. Dann Genau.Jo. Datunk. Genau. Dann haben wir im Prinzip dieses Data Gateil und das ist halt eben soein in so ein Kern. Also, es gibt manche von euch äh verwenden ja auch dann z.B. unser Netup Console Classification dürf's heißen. Ist im Prinzip ein Tool, mit dem ich auch schon in die Inses meiner Daten reinschauen kann.Security GDPR Anforderung schauen, habe verschiedene Filter, kann herausfinden, was für sensitive Daten in meinen Dokumenten drin sind und sowas machen wir mit den Gartrels halt eben auch bei der ganzen Geschichte. Das heißt, ich kann z.B. auch hingehen, was für sensitive Daten habe ich? Ähm, exclude ich die von meinem Datet sowas in der Art oder äh kann ich die mit gruppieren, dass ich dann ganz speziell drauf eingehen kann? Also, wir haben hier schon sehr mächtiges Tool, das dann wiederum auch auf AI basiert, auf was sonst, ähm mit dem wir arbeiten können und definieren, wer darf auf was zugreifen, äh welche Daten kommen rein, wie werden sie anonymisiert und so weiter und so fort. Und das Interessante dabei ist, weiß nicht, ob es auf der nächsten Slide schon drin ist, aber bei den Gartrads ist immer so die Frage, wie anonymisiere ich denn die ganzen Geschichten? Und bei uns ist es so, dass wir nicht die Dateien verändern, sondern beim Beding Prozess, beim Generieren der Vektoren für die Vektordatenbank, dann werden im Prinzip diese sensitiven Daten weggelassen. Also wir blenden die sozusagen aus speziell und packen dann halt eben nur die nicht sensitiven, die anonymisierten Daten sozusagen in die Vektordatenbank reifen. Alles bleibt unverändert, ist sehr effizient, weil ich muss keinen Zusatzschritt reinmachen, habe diesen Filter drin und kann damit loslaufen. Und dieses Modell, weil schließlich brauche ich für die Vektordatenbankgenerierung auch noch ein Modell, das ist momentan, so wie es rauskommt, auf englischer Sprache basiert. Wir haben die klassischen Textdokumente, die mit verarbeitet werden können. Ähm, weil Text wird dann umgemacht und ähm es wird natürlich logischerweise dann zusätzliche Modelle geben, die dann äh Deutsch verarbeiten, die dann auch irgendwann Images, äh Videos und so weiter bearbeiten können, um die in den Datenmark reinzumachen. Aber wie so üblich, das ist unser erstes Produkt Version 1.0. Da muss man sich überlegen, mit was fange ich halt eben an bei der ganzen Geschichte und das wird so der erste Wurf werden. Was wir erwarten können ist, da es ja fast wie so eine Art Cloudservice ist, dass wir hingehen können und sagen, okay, ähm wir machen hier äh in sehr kurzen intervallen Updates neue Funktionalitäten, die mit dazu kommen, die mit reingebracht werden bei der ganzen Sache. Und für alle diejenigen, die sagen, wir hatten ja auch die DX50 als System angesprochen hat, man kann mit denen wachsen, man kann mehrere von den System bandeln. Da geht's natürlich auch um so Nettigkeiten wie Tokens pro Sekunde, wie viel kann ich da durchquetschen durch die ganzen Systeme, aber auch was schon angedeutet worden ist und auf der Inside gesagt ist, dass wir das als Software only Lösung dann auch bringen wollen, sodass ich so eine RTX 6000 Systeme von Nvidia hernehmen kann, die wesentlich powervoll sind. Powerfuler ist das korrekt Deutsch. Gott [gelächter]mächtigerLeistungsstärker.Danke. Vielen Dank. Da sieht man, ich rede nicht so oft von deutschem Publikum. Leistungsstärker. Genau. Ähm Leistungsstärker. Ähm Leistungsstärker. Genau. Ähm unser Anabolika sozusagen dafür ähm dass wir damit arbeiten können für große Datenmengen das zu machen. Und ich habe es ja schon drin. Vector Emembeddings ähm können wir mit reinpacken. Für alle diejenigen, die da Interesse haben. Wir haben momentan eine L4s drin äh Grafikkarte, die hergenommen wird, um die ganzen Embedtings zu machen und die ähm Vektorsysteme. Und dann haben wir die überall die ganzen API. Und was natürlich auch gesagt worden ist, das Ganze kann nur dann funktionieren, wenn das Ganze eingebettet ist in Partnerkosystem. Ich habe vorhin schon mal von paar gesprochen gehabt, z.B. Diese Starburst Premio setzen wir uns auch intern ein, äh wenn da Interesse ist, aber halt eben gerade die ganzen Integrationen natürlich in die Pipeline mit Kafka mit anderen Datenbanken, die da sind, die Zusammenarbeit mit Nvidia, dass wir diese NIM Services Nehme und NIM Services mit verwenden in der ganzen Richtung. Ich hatte vorhin auch schon mal MLFO Jupiter Notebook angesprochen gehabt, also wie wir in diese Pipelines uns integrieren, die arbeiten und das ist natürlich das ganz wichtige, weil Storage ist und bleibt ein Unterstützer für die EI Prozesse, aber ganz wichtig, weil bei uns halt eben die Daten liegen und die Daten gemanaged werden müssen, die das man das Gold, das Öl für die ganzen AI Geschichten sind Und na ja, da hatten wir dann auch noch mal diese Vision, die wir haben, die Metadeta Fabrik. Vielleicht auch das beantwortet. Natürlich werden wir das nicht nur auf die AFX Systeme begrenzen, sondern dann wir haben ja einen Hybrid Cloud Auftrag sozusagen. Ähm, wir wollen ja alles mit reinbringen und diese Metadeta Engine so als Vision soll natürlich über Public Cloud die klassischen Services und also Onbrems Services zur Verfügung stehen, weil wir so am bestens mit der Intelligen Data Infrastruktur und mit unserer Data Plattform ähm dann für die ganzen unterschiedlichsten Workloads zur Verfügung stehen. Na ja, und damit habe ich wieder ein meiner Lieblingsdinge gefröhnt, nämlich dem ununterbrochenen reden über lange Zeit und will hier mal ein bisschen aufhören, weil vielleicht sind noch Fragen da, Antworten. Sabrina kann ein bisschen noch was erzählen. Ja, was sind so, was hießt dir so ein Kopf, Sabrina, vielleicht gerade von dem sich erzählt hat? erzählt hat? erzählt hat? Ähm, ja, ich würde gerne auf einen Punkt noch mal eingehen. Ähm, auch rund um AI Data Engine. Wir haben ja so ein bisschen das Thema gehabt, AI Storage, näher zusammenrücken etc. Entsprechend haben wir ja auch ganz unterschiedliche Zielgruppen und Personen, die sich mit AI Themen beschäftigen. Dann haben wir natürlich auf der einen Seite diejenigen, die den Storage irgendwie administrieren, die quasi der die Hoheit über die ganzen Daten haben. Da haben wir die Data Scientist auf der anderen Seite. Was würdest du denn jetzt sehen? Für wen ist denn diese AI Data Engine eigentlich jetzt das Hauptthema? Für eine der beiden Gruppen, für beide. Was sind da vielleicht so ein bisschen Vorteile jeweils? Ja, ähm das hängt, denke ich, von der Firmenkultur der jeweiligen Firma ab. Inwi weit ein Data Scientist äh für ein Job macht, sagen wir mal so. Ähm in der Vergangenheit, also gerade bei kleineren Firmen ist es ja oft so, dass im Prinzip man in Personalunion äh sie oder er äh dann Data Scientist und Data Ingenieurier ist. Das heißt, man muss sich dann um seine eigene Pipeline kümmern, die ganzen Sachen aufsetzen und so weiter und so fort, sodass man sagen kann, okay, für so ein Bereich ist es natürlich dann, also gerade wenn ich sowieso Personalunion habe, muss ich mich ja eigentlich auf das Wesentliche konzentrieren. Ich muss ja ein Business Usase deployen. Ich muss es verstehen, muss die Daten schauen und da ist natürlich nett, wenn ich ein Tool habe, was mich unterstützt in der ganzen Geschichte mir das Leben einfacher macht s, dass ich zumindestens mal was diese Rektdatenbanken aufsetzen und handeln angeht, mich einfach gar nicht drum kümmern muss. kümmern muss. kümmern muss. Da man natürlich auch da feind tunen kann, also dass man nicht nur standardmäßig kann, ist es natürlich auch dieser klassische Data Engineer, der für die Data Scientist Daten zur Verfügung stellt. Auf den passt es. Das heißt im Prinzip äh ich würde mal sagen mehr data engineierlastig an sich, aber im Endeffekt nachher, welche Daten brauche ich dieses Dataset zusammenstellen,dieses Filtern und so weiter ist ja schon die Aufgabe vom Data Scientist, der dann auch sagt, okay, wie will ich denn damit arbeiten? Also meine Antwort ist für beide. Ja, und ich glaube, das ist gerade ein ganz wichtiger Punkt mit dem Zusammenstellen, klassifizieren, Zusammenstellen, klassifizieren, Zusammenstellen, klassifizieren, Zugriffsrechte, Sicherheit etc. Was wir tatsächlich oft in der Praxis sehen, wenn ich ähm einen großen äh eine große Menge Data Scientists habe, die natürlich gerne experimentieren, die vielleicht auch gerne mal irgendeinen Cloudice nutzen, da werden dann Daten vielleicht auch munter hin und her geschoben,egal, ob man das quasi eigentlich dürfte oder nicht. Und ich glaube gerade da liefert ein hohen Mehrwert, dass man tatsächlich ein bisschen eine bessere Kontrolle tatsächlich auch darüber hat. Ja, oder dann beispielsweise, wie Ger hat vielleicht auch einfach Guardrails umsetzen kann, entscheiden kann, wie will ich dann mit diesen Daten beispielsweise umgehen? Also immer, wenn da jetzt irgendwie sensitive Informationen drin sind oder sowas, vielleicht will ich die dann gar nicht erst ähm zur Verfügung stellen verwenden, sozusagen, dass die da überhaupt mit eingehen. Ja, da kann ich dann glaube ich schon einiges von vorne herein schön auch ähm abgrenzen und ein bisschen absichern. Ja. bisschen absichern. Ja.genau. Und wer betendet auftagt, da hat er bestimmt eine Frage in Petto. Ja, wir haben heute eine sehr schüchterne Zuhörerschaft. Oh, wenigFragen überzock [gelächter] vom Gegenteil. Ähm,Frage ähm auf den WX50, da läuft ja Kubernetis. Könnte ich da auch eigene Container drauf laufen lassen, wo wir gerade beim Experimentieren sind? [gelächter] Ja.genau. OderErweiterung der Frage, sehe ich ja gerade aus dem Augenwinkel, oder haben wir da eventuell als Netb schon fertige Container? Genau. Also äh die DX50 Systeme mit der Software oben drauf ist gedacht als fertiges Netupp in das auf dass ich über APIs zugreifen kann und in dass ich zukünftig dann Metadaten noch ingesten kann. Also, dass ich sag, ich reichere Label und TEAGE meine Daten und ich kann im Prinzip ein unterschiedliche Modelle reinwerfen für meine Reckdatenbank zu entstehen. Da wir aber dann die Software Hochheit drauf haben und natürlich auch die Funktionalität, wir reden ja hier von Enterprise Grade, ja, zur Verfügung stellen müssen, ist es natürlich nicht angedacht, dass man seine zusätzlichen Services noch oben drauf macht, sonst können wir natürlich solche Sachen wie äh Tokens pro Sekunde oder sowas ja nicht in den gewissen Rahmen garantieren. Das heißt, es wird äh zum Teil ein geschlossenes System sein, logischerweise sein, logischerweise inwi weit sich das öffnet, wenn wir mit der Software only Lösung loslaufen, weil spätestens da ist ja die Hoheit dann beim Kunden, die dann System zur Verfügung stellen können. Aber wie so üblich, wenn man sagen kann, okay, für gewisse Dinge kann man einen Garant geben, Durchsperformance, Stabilität und so weiter und so fort. Sobald jemand hingeht und zusätzliche Microservices auf der Plattform drauf und so weiter und so fort. Da haben wir halt eben einfach eine Vermischung vonSLS und da muss man mal schauen, wie das funktioniert.Ich nenn es ja auch mal so, der Name Net App kommt ja auch nicht von ungefähr. Ähm App steht ja nicht für äh Applikationen, sondern eben für Appliance. Und Appliances sind in der Regel in meiner und unserer Verständniswelt eben gehätete Appliances, wo man eben, wie Gerade sagte, ja, dediziert ähm Services und Service Level zur Verfügung stellt und wenn man dann anfängt da eigene Dinge drauf zu machen, dann kann sowas eben in Frage gestellt werden. Daher, aber wie auch gerade gesagt wurde und das fand ich glaube ich einen guten Kompromiss, abwarten und gucken, was dieZukunft bringt. Ähm, wir sind ja auch hier jetzt in dem ersten Wurf, muss man ja auch sagen, bei dem ganzen Genau. Das sollte man nie vergessen. Erster Wurf, dieses berühmte MVP Minimal Valuable Product. Also ist nicht MVP Player. Äh, aber da muss man eben sagen, okay, wir fangen damit an und dann laufen wir weiter los. Und das Schöne ist halt eben für alle diejenigen, die halt eben dann rumträngeln, sowas ähm geplant ist, halt eben rechtzügig Updates zu liefern, ja, wie wir es bei unseren Cloudservices halt eben sowieso schon machen. Also insofern haben wir da auch gute Erfahrung drin, weil Salop gesagt ist es dann auch ein Onprem Cloud Service sowas. Genau. Service sowas. Genau. Vielleicht noch eine Ergänzung zu dem Containerthema voneben ähm das was gerade auch noch bei mir in der Frage entsteht. Kunden, die überhaupt keine Erfahrung damit haben. Natürlich würde man mit fettigen Containern da helfen. Ähm, aber auch das sind wieder, ich will es nicht als Worldmap Item betiteln, aber auch das sind Dinge, die gibt's heute noch nicht und auch da an der Stelle habt Nachsicht über Dinge, die in der Zukunft kommen könnten. Können wir ja in der Runde leider nicht so offen sprechen, wie wir das vielleicht manchmal wollen. Ähm, habt da bitte Nachtsichtung. Genau, Sabrina, ich glaube, wir haben ja so einen Link zu einer Demo, wo man bisschen sich selber durchklicken kann, damit man so ein Look in viel bekommt. Genau, die sollte schon im Chat mit drin stehen. Ich überprüf das gerade kurz. Die hat Chris schon gepostet. Demo AFX und AID. Genau. Da könnt ihr einfach mal drauf klicken und euch sozusagen selber, da wird dann immer gehedet, jetzt klicke hier, um dies und das anzulegen. Da ist dann das ganze Thema Guardra beispielsweise nochmal mit erklärt, wie man das machen würde etc. Und da kriegt man auch mal so ein ganz guten Einblick, wie das Ganze dann tatsächlich auch ähm aussieht und wieman damit dannarbeiten kann. Ja.Also GLP on Demand gibt's auch. Ähm, was das müsste auch öffentlich zur Verfügung stehen. Äh, ist hart und kämpft, musste ich feststellen, die Ressourcen dafür. Ähm, aber da kann man im Prinzip dann auch schon mal äh Look and feel viel mit reinbekommen, wie das Ganze aussieht, wenn denn äh das System gelauncht wird, weil äh wir gehen davon aus, dass es wann haben wir gesagt gehabt Februar, sowas in der Art im Prinzip sein. Richtig. Genau. Richtig. Genau. Richtig. Genau. Und auch wenn ihr sagt, ihr wollt das Ganze noch mal erklärt haben, das ist nichts für euch, da selber durchzuklicken oder so, dann kommt auch auf uns noch mal zu, dann können wir natürlich da auch noch mal ein paar mehr Einblicke geben, als wir es jetzt in der großen allgemeinen Runde heute für alle machen können, wenn es da dediziert Fragen gibt zu Teilbereichen beispielsweise.Hast mir gerade äh das Wort desMundes entnommen. Ähm, was mir ganz spontan einfällt, es gibt ja auch noch ähm die schon länger dabei sind hier bei dem äh bei dem Kompaktwcast, kennen ja noch das Lifelab ähm ein betreutes Lab und Demand, dass ich also nicht alleine daad durchklicken muss, sondern dass wir da mit bei sind, ist eine offene Teams Session immer so mit 10 bis 20 Leuten. Wäre das für die Runde mal in die Teilnehmerschaft gefragt interessant für euch? gerne mal einen Plus in den Chat packen, dass man einfach mal das als Demo gemeinsam durchgeht in so einer Zehner, 15er Gruppe. Ähm begleitet eben durch uns, vielleicht sogar auch durch den Gelhard. Müssen wir gucken, wer da Zeit von unserer Seite hat, denn würde ich das mal für Anfang nächsten Jahres mit in die Planung nehmen. Ähm nehmen. Ähm nehmen. Ähm Mhm.dass man guckt, dass man vielleicht sowas mal dannaufsetzen kann. Ja, gibt doch das ein oder andere Plus in der Runde. Ich nehme es mal als Idee mit und äh Sabrina, ich komme mal auf dich zu, dass wir da vielleicht für Anfang nächsten Jahres mal was anstarten können.Ja, sehr gerne. Gut, was ein Übergang Anfang nächsten Jahres. Ähm, Jahres. Ähm, Jahres. Ähm, wie ich anfang schon sagte, wem das hier gefallen hat, ähm der Neujahrempfang 9.18.1hier noch hinter. Ähm, da werden wir dann über die Ontab Neuerung sprechen und wir werden in das disaggregated Thema von heute einen eher, ich jetzt mal technisch nüchteren Eindruck geben. Also nicht, was kann ich damit machen, warum mache ich das, sondern wie funktioniert das? Was ist da der Hintergrund, was sind unsere Beweggründe auf technischer Ebene dazu? ähm plus eben auch neue Hardware. Wir werden auch noch mal die Shelfs oder das neue Shelf und die neue AFX uns angucken. Ähm aber eben mit demHauptschwerpunkt eben disaggregated und natürlich demOnep 9 pun 18 an dem Punkt. Ja,wenn es keine Fragen mehr gibt und ich sehe noch aus dem Augenwinkel eine Frage, wenn sie nicht in der F& A gestellt worden ist, beantworten wir sie trotzdem. Wie setzt sich das AFX System als MCPS Server auf? oder gibt's den Dok dazu?Genau richtig. Ich habe ja gesagt gehabt, MTP Server für Ont Management soll auf die DX50 Plattform, also auf die EDI implementiert werden. Aber wir haben natürlich findige Kollegen äh, die schon vorab das ein oder andere ausprobiert haben, am besten an mich schreiben, den Gehard. Wolf mit einem F. geh hat nur mitd@net.com und äh dann kann ich äh gucken, was die leben Kollegen schon gemacht haben. Ich glaube, es gibt sogar schon ein Blog dazu, was man tun kann. ist natürlich auch nur rudimentär und äh zur Not kann man natürlich auch einfach den MCPS Server vom ähm Data Tool Kit verwenden, der auch schon was abhandelt, sodass man sagen kann, ich kann es darüber integrieren. Das wäre höchstwahrscheinlich mal so salop die einfachste Art und Weise und da kann ich einfach auf GitHub gehen, suchen nach DF Tool Kit und da wird der MCP Server erklärt.Gut,check. So, dann stelle ich mit erschrecken fest, dass man schon sagen muss, eine schöne Vorweihnachtszeit, frohes Fest, falls man sich nicht mehr sieht und vor allen Dingen den guten Rutsch. Und dann sehen wir uns in 2026 wieder. Vielen Dank, Sabrina, vielen Dank Gerhard für eure Zeit, für den Einblick heute. Vielen Dank Chris für das Managen des Chats und vielen Dank vor allen Dingen an alle Teilnehmer und Teilnehmerinnen, die heute herbei gewesen sind. Auch wenn die Fragenrunde ein bisschen dünn war, nehmen wir das mal hin. Vielleicht haben ja einfach auch Ger und Sabrina die so viel Information gegeben, dass keine Fragen offen geblieben sind. [gelächter] Perfekt. Alles klar. Kommt gut durch die Weihnachtszeit, macht euch keinen Stress und bis nächstes Jahr dann. Macht's gut. Tü[musik] hier. [musik] й
Daten sind der Treibstoff für KI und Machine Learning. Entscheidend ist Menge und vor allem schneller, effizienter und skalierbarer Zugriff. Modernes Datenmanagement stellt Daten flexibel und kosteneffizient bereit – dort, wo sie gebraucht werden.