BlueXP is now NetApp Console
Monitor and run hybrid cloud data services
So, dann bauen wir noch einmal Slides von Max und damit herzlich willkommen zu einer neuen Ausgabe Netupkakt unserer monatlichen Webcastreihe hier bei Netap. immer am ersten Dienstag eines Monats und somit zufälligerweise auch wieder heute. Ja, ich bin frisch aus dem Urlaub wieder zurück, das erste Mal wieder mit am Start und wir beginnen den Mai mit einem in meinem Augen schrecklichen Wortspiel, das Mai Update. Für die,es nicht verstehen, da ist das Wort AI drinne. Ähm, über das Thema werden wir heute ausgiebig äh reden und das werde ich wie immer nicht alleine machen, sondern da habe ich mir wie immer tatkräftige Unterstützung mit ins Boot geholt. Auf der einen Seite den Manfred, der ist leider noch nicht da, der kommt ein Minütchen später, der wird sich heute um die ganzen Fragen von euch kümmern, aber wir haben noch den Max am Start, der heute den Hauptteil übernehmen wird und deswegen werfe ich mal den Ball ganz weit von Hamburg in den tiefsten Süden der Republike. Ja, schönen guten Morgen. Mein Name ist Max Amendee. Ich bin Technical Solution Specialist hier bei Netup für den Fachbereich AI ML Analytics. Bevor ich zu Net gekommen bin, war ich auch selbst Data Scientist und dementsprechend freut es mich heute über mein absolutes Lieblingsthema zum Reden. AI und damit zurück in Norden oder? Genau. Zu mir zurück. Ähm bevor wir dann einmal weitermachen, noch der obligatorische Werbeblog. Ähm in der Vergangenheit gab's immer öfter so die Kritik, dass wir ein bisschen immer zu spontan mit den Themen sind. Deswegen haben wir ein bisschen vorgearbeitet bzw. in dem Fall der Chris hat ein bisschen vorgearbeitet. Wir haben die nächsten Monate schon gut eingetütet.Nächsten Monat am ersten Dienstag kümmern wir uns um das Thema Sicher ist sicher. Eigent wollten wir sicher Digger nennen, aber hat man sich dann doch nicht so getraut das öffentlich zu machen. Wir werden da sehr viel über Dora und Niss 2 reden. Auch wie wir als Netb ganzen Thema entgegentreten. Denn gibt es das erste Mal jetzt nach der Reihe der Technologie vorin auch eine Kompakt ons Thema wird Fanblog sein. Über den Inhalt dürfen wir heute leider noch nicht reden. Da bitte ich euch mal bis nächste Woche abzuwarten. Ähm kann aber sagen, es wird sich definitiv lohnen. Ja, und dann auch schon in den Juli oder Juli hineingeblickt. Das Snapcenter hat ja auch in den letzten Monaten immer mehr Updates bekommen und im Juli werden wir uns dem Thema Snapcenter, was gibt es Neues, News und Updates widmen. Wie immer unten die beiden QR-Codes ähm für die Compact Ons ähm wird die Webseite noch in den nächsten Tagen angepasst, dass man sich dann noch anmelden kann. noch ein bisschen Zeit hin für den Webcast, wie immer der linke QRCode und wenn wir mal wieder ein Liveelab starten, äh dann ist die Anmeldung über die Mailadresse in der Mitte. Momentan ist da nicht wirklich was in Planung. Wenn ihr Vorschläge habt, gerne an uns rantreten. Gut, dann war's das auch schon der ganzen Vorräte und dasselbe Blogs. Den ersten Punkt haben wir damit auch schon so gut wie es geht abgehakt, die Vorstellungsrunde. Ähm, Housekeeping, ganz wichtig, wenn ihr Fragen habt, benutzt dafür bitte die F&A oder Q&A Funktion hier in Zoom. Wie gesagt, der Manfried, der kommt gleich noch mit dazu und wird eure Fragen beantworten. Der Max hat gebeten, da ist er auch schon, der Max hat gebeten, dass wir die Fragen versuchen möglichst aus seinem Vortrag herauszuhalten, damit er der Flow nicht ganz so sehr verloren geht. Deswegen, wenn ihr Fragen habt, stellt sie aber trotzdem schon währendderSession, damit sie nicht verloren gehen. Denn bevor wir jetzt loslegen, Max, geben wir noch Money kurz die Chance. Money, du kannst uns hören. Ich kann noch hören, ja. Hi, wunderbar. Dann sag du noch mal kurz mal zwei, drei Sätze zu dir, ähm wer du bist, was du über Nette machst und äh dann können wir auch gleich starten. Hallo ähm Mani Ostermann, ich bin äh vom Kanteam ähm steht für Cloud AI and New Solutions Channel Team. Unser Team onboardet neue Partner zu Netup, die was mit Cloud zu tun haben, Cloud only. Ähm und wir helfen unterstützen auch ähm bestehende Partner im Bereich Cloud, AI äh und supporten und machen hier einfach das kommt together. Wir haben auch ähm wir haben auch die Connections zu den Hyperscalern, zu AVS in unserem Team und zu Aser und zu Google. Also, wenn da in der Richtung etwas ist, kommt einfach auf uns zu. Und ich habe heute die Ehre, eure Fragen ein bisschen rund, um äh eure Fragen zu beantworten. Alles klar. Merci. Damit, Max, The Stage ist yours. Was hast du uns heute alles mitgebracht? Genau, meine Freude ist es heute über verschiedene AI Themen zum sprechen. Ich werde anfangen, dass ich als Einleitung etwas über das Thema GenI und in die aktuellen Halbthemen rum redenoder Unternehmen, die wir sehen, GenI heute einsetzen. Danach möchte ich auf unsere Lösungen kurz eingehen, drauf drüber reden, wie wir im Hardware Umfeld helfen können, z.B. mit unserer neuen Nether AIPOT Lösung. möchte aber auch zeigen, wie wir mit der Software helfen können und wie wir bei Cloudthemen helfen können. Am Schluss möchte ich ein praktisches Beispiel geben, wie wir als Netup tatsächlich auch AI selbst verwenden und wir haben nur auch so mal Anreizung oder so eine Anreizung zum Geben, was wir genau da machen können und wie auch Netup AI verwendet, um für sie mehr Werte zu stiften und die Experience zu verbessern. Am Schluss wür ich dann auf die Fragen eingehen und genau würde mich freuen, wenn möglichst viel Fragen dann auch auftauchen und eine gute Disekursion gemeinsam haben. Aber komme aber fangen wir an. Ich glaube, kaum ein Thema hat die Technik so bestimmt oder die Technik der letzten zi d Jahre so bestimmt wie das Thema AI und besonders das Thema Generative AI ist in jedem Mund sogar der Tagesschau kommen immer wieder Artikel drüber oder Berichte drüber wie AI angewendet wird und wenn wir uns anschauen, warum ist diese Hypeumchein AI so groß, dann sehen wir, dass verschiedene Institute für verschiedene Vorsagen treffen. wird verglichen Wichtigkeit von Generative AI mit der Erfindung der Dampfmaschine. Mckins sagt, dass die Wirtschaft die Auswirkung von Generative AI bis zu 4,4 Billionen US-Dollars sein wird und Produktivitätssteigerung dadurch. Das sind immense Zahlen, aber gleichzeitig stellt sich oft bei vielen Kunden auch bei denen ich bin und mit denen ich da drehe, wie kann man denn jetzt eigentlich heute GenI eigentlich schon einsetzen? Und da ist der Punkt, dass wenn wir heute über Generative sprechen, dass wir eigentlich fast immer über den Subpunkt der Large Language Mods reden. Warum? Weil einfach diese Anwendungsfälle heute am einfachsten anzuwenden sind und den schnellsten und besten Return of Investment an der Stelle bringen. Und wenn wir über Large Language Models reden, dann sehen wir eigentlich hier einhalb Anwendungsfälle, wie man Large Language Models im Unternehmen heute einsetzen kann. Warum viinhalb? Ich würde als halben Anwendungsfall sehen, dass man einfach Chat GPT verwendet, dass man sein Angestellten, sein Mitarbeitern, sein Kollegen eine Chat GPT Subscription einfach zahlt diese$ im Monat und sie so arbeiten lässt oder sie so quasi large language Models erleben lässt. Ums ist es aus unserer Sicht nicht optimale Weg. Das ist aufgrund von mehreren Punkten. Der Hauptpunkt ist aber, dass Jet GPT einfach nicht die Unternehmen die chivischen Daten hat und dementsprechend eigentlich egal für welchen Fall die Antworten zu allgemein sind und eher dann zusammenfasset der Tätigkeit unterstützen kann, aber nicht bei Aufgaben, die wirklich für ein Unternehmen bei den Unternehmens relevanten Daten wichtig sind. Was wir stattdessen sehen, sind die folgenden vier Punkte. Der erste Punkt, wie man large English Model einsetzen kann, ist es wirklich ein Foundation Model selbst zu trainieren. Dafür braucht man aber jede Menge Daten. Man braucht sehr viel Knohow und man braucht signifikante Mengen an Computerressourcen. Nur mal um eine Zahlen inraum zu werfen. der Gründer und Chef vom aktuell besten Larg language Model, also vom Unternehmen dahinter natürlich, das nennt sich trophic und das Large Langage Model selbst heißt Lord 3 hat in einem Interview vor zwei oder drei Wochen behauptet, dass das Training von diesem Modell einen neuenstelligen Betrag Cloud Computen verursacht hat. Das sind für mich total verrückte und gigantische Summen, wenn man denkt, wie viel Rechenleistung das ist, um so ein State of the Art Modell zu trainieren. Klar, braucht man ein State of the Art Modell? Nein, ein kleineres Modell reicht auch, aber selbst dann sind wir noch inem Trainingsbereich von oder Computereich im sechsstelligen Bereich, teilweise im siebenstelligen Bereich und das zeigt, dass die Option 1 eigentlich nur eine Option für ganz wenige Unternehmen in Deutschland ist und die Option 2 auf der Slide eigentlich die viel oder die attraktivere Variante davon ist. Option 2 ist das Fin Modellen. Wie kann man sich das vorstellen? Im Prinzip nimmt man ein bereits bestehendes trainiertes Modell. in der Regel ein Open Source Modell und trainiert es zusätzlich zu den bestehenden Daten mit eigenen Unternehmensdaten. Hat den Vorteil, dass man quasi basieren schon auf dem Training von den bestimmten Daten quasi weitermacht und es quasi mit den eigenen Trainingsdaten eigenen Anwendungszweck modifiziert, sodass es die eigenen Daten, das eig Wissen lernt, ohne dass man das Modell jetzt von der PIE auftrainieren muss. Der Vorteil dahinter ist, es braucht deutlich weniger Ressourcen. Weuning ist auch einfacher umzusetzen und es geht deutlich schneller. Wir sprechen jetzt hier nicht mehr von dem sechsstelligen Betrag, wir sprechen von dem vier vielleicht fünfstelligen Betrag. Ja, bei großen Datenmengen zum Fetuning, aber auch das hat noch Nachteile und das hat nämlich einen Nachteil den Punkt 1 und 2 auf dieses Slide gemeinsam haben und das ist der Punkt, dass jedes Mal wenn man neue Daten als Unternehmen hat, man dieses Modell wieder neu fe tunen muss oder von der Peak auftrainieren muss. dementsprechend mit Punkt 3 auf dieser Slide gerade total gehyped und von den meisten Unternehmen, wo ich auch zurzeit interagiere als die bevorzugte Wahl genommen, dieses sogenannte RAG, dieses diese sogenannte Retrieval Augmented Generationhört sich Fancy an, ist es aber eigentlich nicht. Stellen Sie sich so vor, dass wir jetzt einfach einen bestehenden Large Language Model Zugriff auf eine Datenbank geben, eine sogenannte Vektordatenbank. Das hat einen riesengroßen Vorteil und der riesige Vorteil dahinter ist, dass man jetzt eben nicht jedes Mal, wenn man neue Daten hat, dies Modell neu feintunen muss, neu trainieren muss, sondern dass man jetzt eben einfach diese Datenbank um diese neuen Vektoren, um die neuen Daten erweitern kann. Der letzte Punkt, den wir häufig sehen, ist das Zot und das Future Learning von Modellen.Ich denke, das kennen Sie alle besser unter dem anderen Begriff, nämlich unter dem Brompt Engineering. Was man damit macht, ist man sagt quasi einem bestehenden Modell, wie sich verhalten soll. Ein Beispiel wäre jetzt, dass man jetzt einem Chat, einem Lama 3 sagt, verhalte dich wie ein Netup Chatbot. Und es hat sich herausgestellt, dass das oft erstaunlich gut funktioniert, vor allem mit diesen Advanced Large Language Model, mit diesen riesigen Large Language Models, das erstaunlich gut aufgrund von einfachen Bromps quasi ja erahnen können, wie sie sich verhalten sollen. Ganz wichtig bis zu festzumalten, dass man alle diese vier Punkte auf dieser Slide miteinander kombinieren kann. Aktuell sehen wir hauptsächlich eine Kombination zwischen Punkt 3 und 4 auf dieser Slide, aber in manchen Fällen sie machen eine Kombination bei einigen Kunden von Zon 2, 3 und 4. Aber warum erzähle ich ihm das alles? Warum verwende ich die ersten 6 Minuten meiner Präsentation heute damit über Jen AI und Larischmod zum reden und vor allem über diese Slide? Die Stall dahinter oder der Punkt dahinter ist, dass alle diese vier Optionen richtig viel Daten brauchen und das ist auch die Funktion, die wir als Netup für uns bei Ihnen sehen, äh und für ja ihre oder wie wir sie bei Ihrer AI Journey bei sich im Unternehmen unterstützen können, nämlich dass wir für diese AI Projekte zuverlässig und schnell die Daten zur Verfügung stellen, s dass sie quasi möglichst schnell diese Schritte, je nachdem was sie wollen, damit erledig können und möglich schnell damit arbeiten können und dazu auch eine kurze Exkursion, nämlich ich bin zurzeit bei ganz unterschiedlichen Unternehmen, wo ich über die Themen AI spreche vom kleinen AI nativen und cloudnativen Startup bis hin zu riesigen Unternehmen und was ich total erstaunlich finde ist, dass eigentlich die Herausforderungen, die wir sehen, sich sehrähnel bei den Unternehmen und wir eigentlich In fast jedem Fall, ich würde so gerade behaupten, e ich immer mindestens zwei der Herausforderungen auf diese Slide bei den Unternehmen, wo ich bin sehen. Der erste Punkt ist eventuell etwas als Vorurteil, aber es geht ums Thema oder die erste Herausforderung, die wir sehen, es geht ums rund ums Thema Daten. Wir sehen, dass vor allem das der Punkt der Data Gravity in der AI zur Zeit eine große Herausforderung spielt und unter Data Gravity versteht man die Herausforderung, dass man die Daten zu den GPUs zu den AI Beschleuniger bringen muss zum Trainieren der AI Modelle. Und das ist besonders inso ist und das ist besonders insofern wichtig, dass wir bis heute sehr oft sehen, dass die Daten an einer anderen Stelle entstehen, als die Modelle trainiert werden. Warum? Wir sehen, dass be stand heute bei vielen Kunden die Daten noch on Brem im Rechenzentrum entstehen, generiert werden, gespeichert werden, aber wir sehen bei vielen von unseren Kunden, dass die ersten Schritte mit AI in der Cloud gegangen werden und die Daten von um Brem in die Cloud zu bekommen, hört sich im ersten Schritt recht einfach an, aber wir sehen, dass wenn die Datenmengen im Terabt Bereich sind, es eine größere Herausforderung ist, dass viel das ursprünglich erwarten. Eine andere Herausforderung, die wir bei vielen von unseren Kunden sehen, geht rund ums Thema Shadow IT, Shadow AI. Was versteht man drunter und warum ist das wichtig oder warum ist es eine große Herausforderung? Wir sehen, dass auch heute noch in den meisten Fällen die AI Abteilung nicht Teil der IT-Abteilung im Unternehmen ist, sondern an der anderen Stelle in einer Innovation Abteilung z. unter Mercedel zum Thema Innovation aufgehangen wird und deswegen die Kommunikation zwischen der Tierabteilung und der AI Abteilung oft erstaunlich schlecht ist. Es führt dazu, dass oft die ITabteilung schon Lösungen für Probleme hat, an denen die erabteilung viel Zeit verbringt. Wir sehen es aber auch erstaunlich oft andersrum. Also wir sehen auch oft, dass die AI Abteilung schon Lösungen für Probleme hat, an der die ITabteilung noch dran ist. Vor allem beim Thema Cloud, nachdem viele von unseren Kunden, auch viele von ihnen, die heute zuhören, ähm bestimmt die E-Abteilung quasi komplett in der Cloud schon ist, geht quasi die E-Abteilung schon oder geht immer noch quasi eine Vorreiterrolle in den Unternehmen und muss quasi schon alle Sachen bzügung Compliance in der Cloudklären, wenn die Tierbabteilung an der Stelle teilweise ähm von diesem knohow, von der ERA Abteilung profitieren könnte. Die anderen Probleme, die anderen beiden Herausforderungen möch oder die man auf unten auf der Slide sehen kann, nämlich Komplex und Scaling Air Projects möchte ich zusammenfassen. Man möchte etwas mehr dazu erzählen. Was wir heute sehr oft sehen ist wie geradeschon gesagt, dass oft eine Cloud entsteht und dazu möchte ich auch noch mal kurzen den Schritt zurückmachen und drüber reden, warum sehen wir denn das oder warum ist das so? Warum ist AI so oft in der Cloud? Wir sehen, dass in vielen Fällen Data Scientes, die gerade von Universität kommen, die vielleicht gerade erst zum zweiten Job kommen, wie ihr es gewöhnt sind mit den Hyperskalativen EI Tool zum Arbeiten. Es ist oft Google Vertex, Asure Mine Studio, ähm Studio, ähm Studio, ähm Sagem Maker und diese Umgebungen sind sehreinfach zu verwenden und haben einen guten und schnellen Zugriff auf die GPUs haben wir aber das Problem, dass sie relativ schlecht größer skalieren und andererseits sehen wir, dass die Kosten bei die diesen hyperscalentativen Tools bei großen Deployments ziemlich stark nach oben gehen. vor allem, wenn es dann drum geht, wenn Real aus einer Experimentierphase geht oder Experimentierphase kommt und in die Produktion kommen, was jetzt doch bei den meisten von unseren Kunden schon der eine oder anderen Form ist. Und diese Skalierung stellt viele oder diese Skalierung einerseits von den Kosten, aber auch anders von den Ressourcen stellt viele heute von den Herausforderung und das Herausforderungen, die wir gerne gemeinsam mit ihnen angehen würden, basierend auf der Erfahrung von den Kunden, bei denen wir diese Herausforderungen schon gelöst haben. Mein Ziel für die nächst für die ja nächsten 30 35 40 Minuten ist es jetzt mit Ihnen anhand vom oder über vier verschiedene Themengebiete zum sprechen. Ich hab es vorhin kurz schon eine Einleitung erwähnt. Ich möchte noch mal kurz etwas ausfölllicher drauf eingehen. Am Anfang möchte ich mit Ihnen über das Thema Hardware sprechen. Ich denke, das ist das, wofür die meisten von Ihnen, die heute im Groll sind, uns am besten kennen. Danach möchte ich über das Thema Operation sprechen. Möchte Ihnen beweisen und aufzeigen, dass wir als Netop mehr sind als nur schnelle und zuverlässige Speicher. möchte den zeigen, wie man eben diesen Anwendungsfall, den ich vorhin erwähnt habe mit dieser Beginn der AI Turn in der Cloud, wie wir doch mehr Werte bringen und das ganz vereinheitlichen können, so dass kein Wendelogin entsteht und dass man die Kosten derabteilung selbst besser unter Kontrolle hat. Am Schluss möchte ich dann noch mal anhand von dem praktischen Beispiel, nämlich anhand von unserem autonomus Ransomware Protection zeigen, wie wir selbst AI in vielen von unseren Produkten Lösungen einsetzen, um die Erfahrung für Sie und auch für uns bei der Verwendung unsere Produkte zu verbessern. Aber fangen wir mit dem Thema Hardware an und beim Thema Hardware und AI setzen wir in fast jedem Fall auf unsere tiefe Partnerschaft mit Nvidia. Warum Nvidia? Warum nicht AMD, nicht Intel oder Serebras oder eins der Startups? Ähm, wir sehen stand heute, dass bei über 99% unserer Kunden, die etwas mit AI machen, eigentlich vor allem am Anfang auf Nvidia gesetzt wird, weil die Nvidia Lösungen am selsten sind, am besten skalieren und am auch am einfachsten beglichen mit den anderen Optionen zu verwenden sind. Wenn es größer wird, dann kann es Sinn machen auf eine AMD Intel oder CO mit eBundgangern zum Setzen. Aber vor allem beim Training von Modellen sehen wir aktuell eigentlich keine Konkurrenz zu Nvidia, was Flexibilität und Performance angeht und dementsprechend sind wir sehr stolz auf unsere tiefe Partnerschaft mit Nvidia und unsere tiefe Integration und Zertifizierung von unseren Lösungen. Und dazu möchte ich drauf oder möchte ich zeigen, möchte ich mit dieser Slider aufzeigen, dass unsere Kooperation quasi von kleinen Inferencing Workloads bis hin zu einem riesigen Superpot geht. Ich werde auf diese vier Punkte oder auf diese oder besser gesagt auf drei dieser vier Punkte nachher ähm in ungefähr 10 bis 15 Minuten noch mal ausführliche drauf eingehen. Aber ich möchte schon mal eine kurzenaktischen Felösungen, über die ich dann sprechen werde hier auf dieser Seite geben. Ich denke, den Flexput, den kennen sie alle. Wir haben jetzt seit zwei Monaten auch eine neue Zertifizierungsam mit Cisco für den sogenannten Flexfi, mit dem wir von kleinen Inferencing Edge Deployments bis hin zu großen Trainingsklastern mit zusammen mit Cisco in dieser Flexport AI Architektur gehen können. Unser Kern unseres AI Portfolios ist der sogenannte Netupp AI Podige von ihnen vielleicht noch bekannt unter den Begriff des Ontap AI Solutions. Dafür haben wir zusammen Nvidia ein OVX Lösung. übrigens als erstes Deutschwender auf dem Markt zertifiziert und andererseits haben wir den Baseport zertifiziert, der NVIA DGX basierte Lösung. Wenn es dann drum geht ums Thema riesige Einstallments, dann sind wir als einer von vier Storage Trendern auf dem Markt für den sogenannten Nvidia DGX Superpot zertifiziert. Für die,von ihnen vielleicht noch nicht davon gehört haben, der Nvidia DGX Superpot sind diese riesigen Installments von Nvidia mit mindestens 31 bzw. 32 Nvidia DGX Systemen, also riesige Maschinen. Ich werde nachher auch den Nvidia DGX Superport in meinem Slide auslassen aus Zeitgründen. Wenn Sie aber dazu Interesse haben, können wir gerne drüber sprechen. Wir haben mittlerweile einiges an Erfahrung im Bereich DGX Super WordPort auch im Raum gesammelt und einige Kunden für die Solution somit, dass wir auch in sie riesige Instorments planen, wir können dabei helfen und sie können von unserer Erfahrung damit und uns zur Zertifizierung davon profitieren.Aber wie gesagt, ich möchte mich auf die drei linken Firmen oder die mittleren Solutions hier heute fokussieren. Und was diese drei Solutions gemeinsam haben, ist, dass wir eigentlich die gleichen Ziele bei diesen drei Solution verfolgen. Und der das erste Ziel ist es, dass unser Storage in diesen Solutions zu keinem Zeitpunkt der Bottonck ist. Wie machen wir das? Wir kaufen uns die Nvidia Server, die Nvidia Grafikkarten selbst in unserem Lab und testen für eine Vielzahl von verschiedenen AI Application. vielzah viel Zahlen AI Us Casases aus was für Storage Anforderungen es kostet oder was für Storage Anforderungen es hat s dass wir sicherstellen können, dass unser Storage zu keinem Zeitpunkt in diesen Architekturen Spotlink ist. Andererseits stellen wir mit diesen Zertifizierungen natürlich auch sicher, dass alles gut zusammen eingespielt ist, dass alles gut funktioniert und sie in ihrem Unternehmen möglich Experience haben bei der Verwendung von GPUs, ohne dass ja auf unerwartete Herausforderungen stoßen. Herausforderungen stoßen. Herausforderungen stoßen. Aber wie gesagt, unser Ziel ist es ein Schritt weiterzumehen und wir wollen mehr als dieser zuverlässige und schnell St an der Stelle sein. Und das reichten wir einerseits dadurch, dass wir immer Nvidias neueste Technologien und Services unterstützen. Jetzt ein Beispiel wäre z.B. Nvidia Graphic Direct Storage. Vielleicht hat von Ihnen der eine oder andere von GDS schon mal gehört. Für die,es vielleicht noch nicht gehört haben, bei GDS handelt sich im Prinzip um NFS oder RDMA. Nur dass jetzt der GPU über die direkt die Daten vom Storage System anfordert, ohne über den CPU vom Hostsystem zu umgehen. Warum? Weil sich in den Testing von Nvidia gezeigt hat, dass diese Nvidia von die Age 100 Generation mittlerweile so verrückt schnell sind, dass das reine Daten verarbeiten, processing der Daten, der quasi das Bottleneck seitens des CPUs, des Hoster sein kann und diesen potenziellen Bottelneck kann man in ja zertifizierten Architektur von Nvidia, die dann auf Nvidia Melanock Switches passiert, quasi umgehen und wir als Netup sind, ich glaube seit unb 91, da unterstützen wir das auch. und können quasi auf diese Standards mitgehen und können ihnen dabei helfen, auch die letzten Performance Botlcks in ihrem Eis zu umgehen. Aber wir setzen auch noch auf Funktionen, die wir in unserem Ont Betriebssystem jetzt integriert haben und die wir die unsere Meinung nach in gute Mehrwette liefern können. Und eine davon ist uns ist das Thema File Object Reality. Bin mir sicher davon.haben einige von ihnen heute, die heute in diesem Collend schon gehört. Und beim Themafil Objectuality muss man sich noch mal vor Augen füllen. Netup kann jetzt schon seit vielen Jahren auf On all Storage anbieten, Object Storage anbieten und Block Storage anbieten, aber bis jetzt auf getrennten Storage virtual Machines, also getrennt voneinander.Was wir jetzt mit File Object D Reality machen, ist quasi das Beste aus beiden AI Welten zu kombinieren, nämlich die beiden Protokolle, die wir im EF am meisten sehen, nämlich NFS und Object Storage. Und mit File Object Duality können wir jetzt quasi können wir jetzt Daten, die auf einem NFS Fallscher sind, auch übers S3 Protokoll lesend und schreibend zur Verfügung stellen. Das ist insofern wichtig, dass wir gerade im Feld immer mehr sehen, dass immer mehr AI native Applications noch S3 Protokoll sprechen und nicht mehr Fallprotokolle sprechen. Wir sehen aber gleichzeitig, dass in vielen Fällen die wir haben Storage Abteilung, die IT-Abteilung lieber den Data Inest über NFS über NFS stattfinden lässt und über die Sicherheit davon profitiert und so können sie quasi das Beste aus beiden Welten kombinieren. NFS EQES oder Verbindung besser gesagt zu den Air Applications übers S3 Protokoll. Und wenn wir beim Thema besten aus beiden Welten sind, dann möchte ich auf der nächsten Slide quasi diesen Fahraden weiterspendenund zwar darüber reden mit welchen Solutions, mit welchen Hardware Solutions wir in der Regel wel ja oder welche wir in Regel unseren Kunden vorschlagen.Bin ich zu Netup vor drei dreieinhalb Jahren gekommen bin frisch noch aus der Data Science. Ähm da war es eigentlich immer recht einfach. war es einfach war es eigentlich immer recht einfach, welche Solution wir unseren Kunden vorgeschlagen haben für den AI Instorments und das war in der Regel eine AFF A800 oder eine A900 für größer Instuments oder eine A250 für A400 bei ein bis zwei äh oder bis zu vier Nvidia DGXen oder Nvidia DGX Equivalente. Wir sind aber recht häufig vor eine Herausforderung gestanden, weil wir oft die Anforderung hatten, dass riesige Date oder große Data auch diesen AFF A Series wiedergespiegelt werden mussten oder sollten, um eben eine perfekte Performance fürs Training von den Rodellen zu gewährleisten. Aber sie wissen es, unsere AFF As ist extrem schnell, aber auch nicht ganz billig. Dementsprechend haben wir in vielen Fällen einerseits eine A Series als Hot Tier genommen und eine Fas als Warm bzw. Scrolltier präsentiert. Scrolltier präsentiert. Scrolltier präsentiert. Jetzt haben wir aber seit ungefähr einem Jahr eine richtig coole Lösung dazwischen, die eben das Beste aus diesen beiden Welten kombiniert, den jeder von Ihnen hier im Raum kennt sie. Unsere Cseries. Ich möchte drüber möchte mit Ihnen paar Minuten drüber sprechen, warum die Cseries für uns im Bereich der AI so unfassbar cool ist. Sie ähm ich denke die meisten von Ihnen wissen ähm, dass die Cser Series von der Fruate relativ ähnlich ist wie unsere AC ist. Also wir sprechen hier ungefähr 10 bis 20% langsamer was Fru angeht, aber durch die verwendeten Capacity Flash SSDs, die sogenannten QCS SSDs, die Latency von unserer CCS um einiges höher ist. Keine Sorge, wir sprechen hier nicht von Festplatten Latenes, wir sprechen hier immer noch von dem niedrigen Millisekundenbereich, aber verglichen mit unserer Asie es doch deutlich länger ist. Was wir aber in unseren Benchmarks und in unseren eigenen Tests imLab im RTP gesehen haben oder in North Carolina gesehen haben, ist, dass wir haben für fast alle AI Applications, die latency eigentlich egal ist, bis auf ganz wenig Ausnahmenfällen geht's eigentlich beim AI Training in die reinen Frpot zahlen. Und da sind wir wieder an diesem Punkt. C Series hat einen hat eine Laten oder hat einen Fre, der sehr ähnlich ist zu ein Ries, aber ein Bereis, der deutlich näher an der Phase ist als an der AFF Ries und somit lassen sich eben dieser Gedanken spinnen. Man muss den Data Lake oder die großen Datenbank nicht mehr auf einem kostengünstigen Storage auslagern und dann quasi sich über Teing Strategie Gedanken machen. Man kann jetzt eben Daten Dataal direkt in dem Capacity Flash speichern. um eben mit der optimalen Performance an daran damit zum Arbeiten und quasi sofort sich keine Gedanken mehr ums Thema Cashing und Co machen zu müssen, sondern man kann alles direkt auf dem schnellen Gash haben und mit den gleichen Funktionen wie mit einer RERS dann onp one Lizenz sind quasi alle Funk sind alle Funktionen von der AFF A Series auch auf der Cseries wir haben vorhanden für uns als AI Team ist das eine super tolle Lösungweil wir eben das jetzt auch bei vielen von unseren Kunden einfach als quasi Volllösung ja vorschlagen, die Cories, weil sie eben das Beste aus beiden Welten wie gesagt beinhaltet und diese ganzen Lösungen, also einerseits die Lösungen von hier, allerdings auch hier können sie sehr flexibel jetzt auf die vorhin angespoilerten Lösungen von uns auf die AI Lösung von uns quasi verwenden. Sie können natürlich auch jederzeit wie gesagt ASUS verwenden oder eine Cous. Wie gesagt, wir sehen oft im erum Feld macht die Cas statt heute mehr Sinn.Ein Beispiel, wo man die Cas oder auch die AIS sehr gut verwenden kann, ist unsere zertifizierte Lösung ja mit der Cisco zusammen mit dem Cisco Flexport AI.Der Flexboard AI ist für uns insofern sehr toll als dass er extrem gut skaliert von kleinen Deployments bis hin zu recht ziemlich großen Deployments und das ist durch die Tatsache, dass auch Cisco mit Nvidia eine ähm eine enge Partnerschaft hat und sehr viele verschiedene zertifizierte Systeme mit oder mit verschiedenen zertifizierten Nvidia Grafikkarten System anbietet und da geht es da geht quasi Bandbreite schon los bei Nvidia kleinster AI Grafik Enterprise AI Grafikkarte der sogenannten L4 in einem Cisco äh Server drin, der dann zusammen mit unserem Storage der FX ist. Das sind zum mehreren H100 der aktuell schnellsten Grafikkarte von Nvidia in den Servern quasi zertifiziert ist und funktioniert. Somit kann man mit diesem Cisco Netup Dexport AI eine total große Bandbreite an Lösungen abdecken von dem Edge Device nur für Inferencing Workl, also das Ausführen von A Modellen bis zu großen Deployments zum Trainieren von Large Language Models. Ich würde es vielleicht nicht zum Trainieren von Foundation Models werden, dafür sind die größeren Büchsen dann zuständig, aber fürs Fein von Large Engage Models. All das kann man quasi mit Blackspot gut abdecken. Und der große Vorteil von und der große Vorteil für uns von dieser Lösung ist an der Stelle, dass ihm, wenn man schon existierendes Flexport Deployment hat, Flexport in mehreren Stellen einben verwendet, dass man das dann ganz einfach mit der Flexport AI quasi erweitern kann, dass man einfach erste Schritte bezüglich AI quasi mit gleich mit Enterprise Hardware mit zuverlässiger skalierbarer Hardware gehen kann, ohne sich Sorgen um den ohne sich große Sorgen den Betrieb machen zu müssen, um ohne es sich um Sorgen bezüglich der Komplexität der Nvidia Management Software machen zu müssen. Sie können im Prinzip die bestehenden oder sie können die bestehenden Verwaltungsmethodeneinfach an der Stelle weiterverwenden, sodass sie quasi mit diesem Flexport AI vom ersten Tag an eine super Experience haben für ihre Data Science ohne Sicht und wie gesagt Thema Management an der Stelle große Sorgen machen zu müssen. Aber wenn sie jetzt sagen, okay, blackot ist super, aber ich will eine Nummer größer, dann können wir natürlich auch sehr gut helfen und das ist die Lösung, die ich glaube wir als Netup am meisten haben aktuell pushen und die wir auch bei vielen von unseren Kunden heute sehen und das ist unsere Netup AIP Lösung.Stellen Sie sich das weniger vor als wir haben eine fixe als eine fixe Lösung, sondern wirklich eine Lösung, die wir auf ihre Anforderungen gemeinsam mit Ihnen zu anpassen, dass sie am besten funktioniert.Wir haben wir als Netup wie gesagt kaufen uns auch von Nvidia dies Server selber. Ich habe jetzt auch an vielen Stellen von sogenannten Nvidia DXen gesprochen und von jetzt hab jetzthaut auch wie gesagt da noch mal der ist der Punkt OVX von Nvidia auf. Ich möchte noch mal ganz kurz an der Stelle erklären, was sind das, warum sprechen wir davon undob unsere Architektur nur funktioniert, wenn sie tatsächlich diese Architekturen verwenden. Und die Antwort aber zuerst auf die letzte Frage ist natürlich nein. Wir haben unser unsere oder ja, je nachdem wie man das sieht. Wir haben unser, ich spreche von DGXen an der Stelle immer, weil wir intern zum Validieren die Nvidia Serverwenden, weil es in der Regel die ersten Server sind, dieschnellste Nvidia High-End AI Bestandiger auf dem Markt haben, die da kommen, aber natürlich funktionieren unsere Lösungen auch, wenn sie eine Super Microm ja mit Nvidia Gebus verwenden, wenn sie eine Lenovo oder gar wenn sie eine HPE oder eine Dell mit Nvidbeschleuniger Grafikkarten verwenden. Unsere Lösung kanndamit alles funktionieren. Wie gesagt, wir nutzen es nur für Zertifizierungen mit den NVD Geksen. Ich möchte auch jetzt auch noch, wie gesagt, noch mal kurz auf diese Unterscheidung zwischen dem OVX und dem Basep eingehen von Nvidia. Overx ist eine ganz neue Lösung von Nvidia, die eher auf so die wir haben die Mittel die obere Mittelklasse der Fünfer BMW, die Mercedes E-Klasse quasi im Nvidia Portfolio ist und die besteht aus aktuell 8 von Nvidias A40 universeller Grafikad universelle AI Grafik ihr Beschleunigern besteht. Die haben mehrere Vorteile gegenüber eine A100 oder H100 der High-End Serie, nämlich sie sind einerseits deutlich strparender, sie sind universeller, vor allem geht's an der Stelle darum, wenn man auch Grafik Worklots drauf laufen lassen will, ja, uns sind, was man so hört, wir haben auch aktuell besser verfügbar auf dem Markt. Der Baseboard auf der anderen Seite die Nvidia DX mit den H100 oder in der vorgegen Generation mit den A100s ist wirklich dieses Top of allein Produkt von Nvidia immer die und beinhaltet immer die schnellste Ebeschleuniger von Nvidia die zu dem Zeitpunkt auf dem Markt sind. Die sind stand heute vor allem jetzt auch d mit der kommenden B100 B200 ähm Generation aber schon sehr fokussiert aufs Train Training von großen Rodellen und fürVeränderung auch in vielen Fällen am schnellsten für die Veränderung mit large language Models. Aber auch dafür sind wir natürlich zertifiziert und haben viele Kunden, die diese Basepods zusammen mit dem Net Netup AI Podsusammen verwenden in bei sich in der Produktion. Wir sind wie gesagt für beide Lösungen zertifiziert, haben mehrere Kunden, Zickunden, die diese Lösungen auch gemeinsam einsetzen und können sicherstellen, dass wie gesagt unser Storage zu keinem Zeitpunkt des Bottelnckes und die Nvidia Grafikkarten dauerhaft auf Anschlag laufen. Und das ist, glaube ich, auch eine wichtige Message, wenn man diesen Schritt zu diesen großen Air Depployments mit Nvidia Grafikkarten an der Stelle geht. Ich möchte, ich weiß, ich gehe heute schnell durch die Themen durch. Ich möchte aber an der Stelle einen Personawechsel machen, ne? ich weg von Max dem Storge oder dem Storage Spezialisten, der seit dreieinhalb Jahren bei Netup arbeitet hin zurück zu Maxen Data Scientist, der vor drei, der bis vor dreieinhalb Jahren als Data Scientist bei einer großen Bank gearbeitet hat und möchte mal auf ein paar Herausforderungen sprechen oder auf ein paar Herausforderungen gehen, die ich damals als Data Scientist in meinem Leben tatsächlich hatte. Und dazu möchte ich etwas ähm oder möchte ich etwas ausholen. Data Scientist auch Data Scientist arbeiten unterschiedlich lange an EI Projekten. Bei mir konkret war es damals ein Jahr, dass ich an einem Projekt gearbeitet habe. Das Problem ist, wenn man so lange an so einem Problem arbeitet, dann ändern sich im Laufe der Zeit die Daten. Wenn ich jetzt als der Data Scientist am Tag 1 mir eine komplette Kopie meines Datensatzes ziehe und dann ein Jahr lang mit den gleichen Daten arbeite, habe ich am Ende in vielen Fällen total irrelevantes Modell. Warum? Weil ich die Daten, mit denen ich dieses Modell trainiert habe, einfach in der Zwischenzeit so stark verändert haben, dass dieses Modell quasi nicht mehr die Realität widerspiegelt. Wir sprechen als Data Scientists an der Stelle von dem Problem sogenannten Data Drifts oder auch bzw. Model Drifts, je nachdem aus welcher Sicht man das Ganze betrachtet.Was wir als Data Scientists deswegen an der Stelle machen ist, wir ziehen uns alle paar Wochen, bei mir waren es konkret damals zwei Wochen, eine komplette Kopie unseres Datensatzes aufs Volume und die nutzen quasi und mal notieren dann in der Regel Excel mit welchem Datensatz und welchen Code wir welche Zielmetrik erreicht haben. Als ob das jetzt RMSE, OR oder was auch immer ist, F1 Score, das ist an der Stelle egal, aber ähm im Prinzip probieren wir so zu jedem Zeitpunkt nachvollziehen zu können, wie und wie unser Code sich quasi an die Daten ähm ja angepasst hat, um so Probleme wie ja sehr data Science technisch, ich weiß wie Thema wie Overfitting oder frühzeitig zu erkennen zu können und unser Modell am laufenden zu halten. Es ist aber ein großes Problem, dass wir Data Scientist in der Regel nicht das Problem sehen. Bei mir konkret war der Datensatz ungefähr 100 GB groß. Wenn ich mir alle zwei Wochen für ein Jahr lang ja 100 GB große Datensatz auf anders Volume kopiere, dann stehen da ganz schön wieder Daten, die auch gar nicht so günstig sind zum Speichern. Und sie alle wissen hier im Raum bestimmt, es gibt eine viel bessere Lösung dafür. Vor allem, wenn Netfysteme verwendet werden, man muss keine ganzen Kopien des Datensatzes ziehen. Man kann einfach Snapshots triggern. Snapshots merken sich nur den Unterschied Datensatz und sind incremental forever. Also merken sich von Snapshot zu Snapshot nur die Unterschiede. Man kann quasi beliebig viele praktisch 1023 Snapshots triggern und kann so sein Dataset extrem gut und extrem effizient versionen. Das gleiche trifft übrigens zu, wenn man sein Daten Dataaset als Data Scientist mit seinen Kollegen teilen will. In dem Fall wir haben würde hätte ich als Data Scientist eine komplette Kopie des Datets angefertigt, weil ich Sorge gehabt hätte, dass mir ein Datin Kollege Data Engineer eventuell sehen irgendwas reinschreibt oder versehen was raus aus dem Datensatz. An der Stelle würde hätte ich wie gesagt eine komplette Kopie wieder angefertigt. Sie wissen aber an der Stelle, warum die Kopie? Man kann doch den Flex dafür verwenden, wenn die Daten auf dem gleichen System bleiben. Und genau das sind die Punkte, wo ich glaube bei Ihnen jetzt die Frage aufkommt, die aber relativ einfach zu beantworten ist. Warum verwenden dann die Data Scient Tests nicht Snapshots und Flexclones? Und dafür gibt es mehrere Antworten. Dieoffensichtlichste ist Data Scientist kennen Snapshots und Flexclons nicht als Lösung. Der zweite Punkt ist Data Scientists so sind keine ITexperten vielen Fällen. Ich habe ja vorhin schon gesagt, die sind auch in der anderen Abteilung in der Regel und Dataites sollen auch keine Storage Experten werden. Und wenn man sich anschaut, wie man bis jetzt eigentlich unsere Snapshots bei Net getrickert hat, z.B. dann hatten wir zwei Ja, es gibt effektiv mehr, aber wir hatten zwei Hauptmöglichkeiten so Snapshot zum triggern. Erste Möglichkeit unser schöner und System Manager da drauf ist der das zuzugriff zu bekommen macht nicht wirklich Sinn und sich daran einzumarbeiten ist glaube ich von für viele von uns eine groß genuge Herausforderung. Ähm der zweite Ansatzp rest AP, aber diese Calls kennen sie, die werden richtig schnell, richtig lang und richtig komplex. Wir als Netup haben uns jetzt gedacht, ja, alles ist nicht ganz optimal. Wir haben deswegen das sogenannte Netup Data Tool entwickelt. Das Netup Data Tool ist ein Open Source ist eine Open Source Python Library, die ist jetzt erlaubt, die ist jetzt data Scientist erlaubt. Diese Operation, die ich gerade erwähnt habe und viele mehr mit jeweils einer Zeile kurzum triggern. Snapshot eine Zeile Code, Blackstone eine Zeile Code, erstellen neuer Volumes eine Zeile Code wir haben Data Access von z.B. bin im Strip ein Zeile Code. Ich weiß, ich wiederhole mich an der Stelle, aber alle diese Funktionen können quasi ganz einfach von den Data Scientist jetzt in deren Arbeitsumgebungen getriggerte ohne dass sie Storge Experten werden müssen. Und ja übrigens bevor ich den Punkt überspring keine Sorge sie als Deutsche Experten können natürlich die Funktionsweise einschränken. Ich weiß wie der sah anest wenn man uns frein Zugriff auf dem System gibt, wir hät ich glaube auch ich wäre damals schuldig gewesen, hätten wir viel zu viel Volumes quasi selbstprofessioniert und viel zu viel Storage auch quasi ja quick provision, damit ich ja Zugriff habe auf die Daten. Das könnte natürlich einschränken seitens des Tools, so dass die Dataes nicht in den gesamte eine gesamte 800 runterziehen oder blockieren. Ähm und auch die Funktion können Sie einschränken, so dass das Data Scientist jetzt nicht Volumes löschen von dem anderen Kollegen. Ähm aber dieses Date Zücket ist unfassbar wert ist ein unfassbar wertvolles Werkzeug für uns Data Scients, weil wir damit eben unserer Produktivität erhöhen, deutlich schneller arbeiten. Mir hät damals einiges ziemlich schöne Kaffeepausen gekostet. bin recht froh, dass ich weiß nicht, wie ich es jetzt besagen würde, aber ich bin jetzt nicht unfroh, dass ich die Kaffee Pause machen darf Data Scientist, aber so teuer wie heute Dat Scientist als Ressource für viel Unternehmen sind, glaube ich, ist der Chef dann ganz froh, wenn man die Kaffeepausen streichen kann, diees kostet, bis die Daten am Montag morgen kopiert sind, die 100 GB. Ähm und das andere ist, man kann uns ein Storage mit dem Datopsge deutlich effizienter ausnutzen, eben, weil man jetzt nicht mehr 100 und nicht mehr 10 20 Kopien hat, sondern noch Snapshots, Flexclan und das ganze simpel und effizient. An der Stelle möchte ich einen Sprung machen und zwar weg von Hardware, weg von Operation, weg von Operations zum Thema Cloud und möchte mit Ihnen relativ kurz auch mit Zug auf die Zeit heute, dass wir noch genug Zeit fürs Diskutieren haben, mit Ihnen da drüber reden, ähm was wir so im Thema Cloud sind, wie wir diese Probleme beim Thema Cloud AI am besten angehen können. Und dafür muss ich auch erstmal ein Schluck Wasser trinken. Ähm, dafür möchte ich eine Architektur aufzeigen, wie wir es jetzt bei einigen Unternehmen, bei einigen Kunden von uns sehen und ich möchte Ihnen erklären, wie wir da den größten Mehrwert stiften können. Wenn ich beim Kunden bin, ja, ist in fast jedem Fall, dass die Daten stand heute auf einem own Premises Ont System laufen oder liegen und dort in der Regel auch generiert werden, dort auch entstehen. In vielen Fällen sehen wir aber, dass dann die Daten gesagt in die Cloud wandern für die AI eben, weil man GPU sich stund mit kann, erstmal schauen kann, ob er jetzt wirklich den Benefit bringt, den ich mir davon erwarte. Spoilerlert in den meisten Fen tut es. ähm und die und dort quasi anfängt. Wenn man jetzt aber die Hyperscale fragt, wie man es machen soll, dann kommt eigentlich in fast jedem Fall als Antwort die ganzen Daten in den S3 oder Blop Bucket bei dem Hyperscale hochzuladen und dann die im Elops Tool von dem Hyperscale zu verwenden. Elops Tool an der Stelle wä jetzt ein Vertexi Ewaker oder Core und dort dann quasi anfangen zum Arbeiten. Hat aber wie ich vorhin schon erwähnt mal erwähnt habe zwei Herausforderungen. erste die ganzen Daten in den S3 Bucket hochzuladen dauert länger als man in vielen Fällen ursprünglich gedacht hat und zweitens sicherheitstechnisch ist das oft nicht ganz optimal und zweitens wenn man dann mal in so ein Architektur drin ist man quasi eingesperrt und muss sollte an der Stelle dann mit den doch oft kosten desHersgeldes leben. haben. Was wir jetzt als Netup als Alternativ dafür haben, ist, dass man nicht nur um Brem ein onbasiertes System nutzt, sondern auch in der Cloud. Sie wissen es, wir haben bei allen drei Hyperscal Hyperscaler nattive Storage Offerings und zusätzlich bei allen der Hyperscanner auch diese Selfmanaged CVO. Mit dem CVO oder mit dem FSXN unterstützen wir dann auf beiden Seiten Snap Mirror. Somit können Sie Daten sicher und effizient end zu End verschüttel zwischen um Brem und der Cloud übertragen. Das Tolle ist an der Stelle, sie halten dabei die Storage Efficiencies und wir in der Erpung sehen bis heute relativ häufig, dass CSV Dateien fürs für AI verwendet werden und CSV Dateien werden von unserer Storage Efficiency, von unserer Compression total zu nichte gemacht. Also, wir sehen da teilweise Storage Efficiencies von 1 zu bei großen ähm bei großen CSV und besonders bei Deutschlands teilweise extrem schnellen Internetanbändungen ist, macht es oft Sinn, allein schon deswegen sich einfach die Zeit zum Sparen, wie es kostet, bis so eine CSV Datei dann in der Cloud übertragen ist bei riesigen CSV Dateien. Ja, weil eben dann wir haben nur noch ein Achtel, der tatsächlich in Bits eigentlich übertragen werden muss, ohne dass Daten auf dem Weg verloren kriegen. Außerdem ist es ist dann Punkt, den wir immer mehr sehen und den ich sehrgerne pitche, ist man muss die Daten gar nicht komplett in die Cloud übertragen. Also man muss gar nicht eine Kopie der gesamten Daten anfertigen. Stattdessen kann man einfach die Daten wie Cloud cashen. Die meisten von ihnen haben bestimmt schon mal für ein Plex Cash gehört. Funktioniert auch in der Cloud. So kann der Data sein, dass gleich anfangen mit den Daten und der Cloud zum Arbeiten, als wären sie schon alle da und im Hintergrund werden die Daten erst nachgeladen. Kann man natürlich auch z.B. gerade vorgestellten Obs geht auch dann quasi mit einer Teile Code ja die muss die noch mal bringen wir prehitten den Flexcash sass die Data Sciences zum Vorträgern, dass die Daten in die Cloud übertragen werden. Aber ein Vorteil habe ich jetzt schon erwähnt von dieser Architektur mit Cloud based on Tab und das ist, dass man die Daten schnell und sicher in die Cloud bekommt. Hat aber noch einen anderen großen Vorteil. Wenn die Daten in der Cloud sind, hat man eine große Auswahl von Arbeitsumgebungen. Wenn man Hyperscale natives OneP findet, können wir uns in den meisten Fällen in diese MLOs School der Hyperscale auch reinintegrieren, weil wir eben als First Party Lösung an der Stelle uns da reintegrieren dürfen im Gegensatz zu Marketplace Offerings. Die alternativ ist aber, man kann auch open source MLS oder MLOs von seinem Partnern z.B. Cube, Donatalabs Run AI und in diesen Fällen sind wir dann komplett frei jederzeit zwischen um Bram und der Cloud hin und her zu wechseln. So kann man seine ersten Schritte in der Cloud gehen und wenn man dann sagt: "Oh, ja ist geil, ist es in den meisten Fällen ja kann man jederzeit zurückgehen und dann mit so einem Commitment z.B. NVD Dex OVX Flexpot dann diese Umgebung und Brem nachbauen, ohne dass ich die Data Scientist an den und dass ich die Data Scientist an eine neue Arbeitsumgebung gewöhnen müssen eben we Cube Dominal oder runi genauso gut um Brem wie der Cloud läuft und somit bin ich auch wieder bei dem Gedanken, wir verbinden dann eigentlich wieder das Beste aus diesen beiden Welten, eine hybride oder möglicherweise hybride AI Arbeitsumgebung mit der die Data Scien schnell und effizient undtiv arbeiten können.Und ich habe es vorhin schon mal erwähnt, wir als Netup verwenden selbst AI in immer mehr von unseren Services. Die Antiverns Protection von einigen auch genannt ist dafür nur ein Beispiel. Wir haben viele Tools, in denen mittlerweile AI eine wichtige Rolle spielt. Raders ist z.B. auch ein Beispiel, dass ich überlegt hatte heute zum bringen. Ähm, Q und Co. Mitallisch da genelt durch AI Services. Ich möchte mir aber vor allem mit Ihnen die nächsten 2 Minuten ungefähr das Thema ARP animensionware Protection anschauen, weil wir dazu ein kürze größeres Announcement machen werden. Bis heute ist ähm ARP zwar schon AIML basiert, schaut aber relativ spezifisch auf einige verschiedene Faktoren. Also einerseits auf die Veränderung bzw. auf dem Punkt Entropie der Daten, auf die Extensions der Daten, also ist es ein Punkt txt und wird jetzt plötzlich zu einem xxx wird es plötzlich durch irgendein Keycker verschlüsselt, nicht durch Keyer verschlüsselt, durch eine Brandomware verschlüsselt. Wie sind denn so die Zugriffe auf der verschiedenen Daten? Und basierend auf eine Erkennung und auch passieren auf diesen ML-Modellenprobiert dieses System dann zu erkennen, welche Zugriffe irregulär sind. Welche Veränderungen sind irregulär, wenn das verschlüsselt wird? triggert er auf, wenn mehrere Dateien verschlüsselt werden oder denkt, dass das ein irreguläer Zugriff ist, werden die Daten wird automatisch seitens Ontop ein Snapshot getrickert, sodass sie als Admins quasi jederzeit dann zurückspringen können und haben quasi jederzeit diese Ransom werden, die da eventuell ungute Sachen gemacht hat, ähm quasi rückhängig gemacht, rückhängig machen, dass sie quasi so wenig wie möglich gar keine Daten im Fall eines Angriffs verlieren eben dank Snap OTS und sie jederzeit zurückspringen können. Ja, wenn sich das System sehr sicher ist, dass das jetzt gerade eine Ransomware Attacke auf ihre Systeme läuft oder sie gehackt worden sind an der Stelle basieren auf die Daten zu griffen, will es ihnen außerdem eine Notification schicken oder im Storage Minister oder dem ITM Notification schicken und sie waren hey schauen Sie sich das schaut dich schaut ihr das doch mal an läuft irgendwas auf deinem System das da nicht laufen sollte s dass sie nicht nur zu dem Snapshot zurückspringen können dann auch sondern auch, dass sie quasi proaktiv dann was dagegen unternehmen können und damit können wir mit diesen recht simplen ML basierten Ansätzen eben so ihnen heute gut helfen. Wir hatten aber in dem Zusammenhang jetzt auch eine große Announcement, dass in kurzer Zeit von ARP eine weitere Version erscheinen wird. Übrigens dann auch weiterhin komplett in der Onlz mit abgedeckt ist und sie keinen Sent kostet. Was wir in der nächsten Schritt machen ist eben auf mehrere Faktoren auch zum Schauen und quasi noch diese ganzen Workflow noch mehr AI basiert ab abbilden zu wollen und noch tiefer mit AI reinschauen wollen, was sind die Probleme, wie können wir helfen oder nochtiefer diese Erkennung machen und unsere aktuellen Vorkast sind, dass wir bis eine Precision und eine Erkennungsrate von bis zu 99% dann mit diesen neuen MLgorithmen wenn so liest ähm quasi abdecken können. Aktuell sind wir noch in der Technical Review Phase von diesem Tool. zeigt aber auch wieder nicht jede AI muss Jen AI sein. In vielen Fällen ist diese sind es recht simple Anwendungsfälle, mit denen heute große Mehrwerte geschaffen werden können. Und wenn Sie EI Projekte in Ihrem Unternehmen haben, dann würde ich mich freuen, wenn Sie auf uns als Netup dabei setzen und auf unsere Erfahrung auch setzen. Wie gesagt, wir haben wir sind jetzt stand heute bei ganz unterschiedlichen Unternehmen bei ganz unterschiedlichen US Casases involviert und wir sind wir freuen uns, wenn wir als Netup AI Germany Team ihnen dabei helfen und auch mit Ihnen diese Erfahrungen ähm teilen, sodass Sie die Herausforderungen, die wir auch auf den ersten Slides gesehen haben, lösen können, bevor sie bevor diese zu dem Problem werden. Und dafür haben wir in Deutschland ein starkkräftiges Team. Neben mir eben als CSS und Data Scientists haben wir z.B. Gert Wolf der Teil virtuose ist, was das Thema Infrastruktur angeht. Wir haben durch unserem durch JP Johannes Pap Head of A Sales G Market haben Executive Unterstützung wir haben Oliver und Marco zwei Excellente exzellentes DP Architech und Partnersight werden wir vom von Money mein Manfred unterstützt der ich bin auch sehr dankbar heute für uns das Q&Ar übernommen hat und die Fragen dafür beantwortet hat. Mein Call to Action währ an dieser Stelle, wenn Sie ein Airprojekt haben und über das Thema Laten reden wollen und ja von unserer Erfahrung teilen wollen, kommen Sie auf uns zu, kommen Sie auf der Card Manager zu, kommen Sie auf uns zu, kommen Sie auf mich auch gerne direkt zu über LinkedIn, Mail oder was auch immer. Wir helfen Ihnen sehr gerne dabei, diese Lösungen und diese Probleme anzugehen und Ihnen dabei zu unterstützen mit verschiedensten Lösungen und dafür, dass Sie das Beste aus AI möglich schnell herausholen können. Jetzt berch an dem Punkt auch. Gibt's denn Fragen? Money, ist was aufgekommen an Fragen, was noch nicht beantwortet worden ist? Äh ja, eine Frage äh ist noch nicht beantwortet worden und zwar im Bereich äh das halt das schon länger mit Proline und Crypto Spike zusammengearbeitet wird. Lässt sich ARP mit diesem Tool koppeln?Das kann ich leider nicht beantworten. Würde ich aber im würde ich im Anschluss noch mal herausfinden.Ähm wissen wir ja wür ich im Anschluss mal drauf hinaus kommen und noch mal zukommen, ob das gut funktioniert. Ja, ansonsten die Fragen sind glaube ich beantwortet. Könnt gerne noch live auch Fragen beantworten, wenn noch jemand Fragen hat. Genau. An der Stelle machen wir dann erstmal auch ein bisschen weiter auch Blick auf dieUhr. Ähm können schon mal während auch vielleicht Fragen gestellt werden. Einen weiter. Genau. Noch mal die Erinnerung. Äh bisschen was hat sich getan äh auf der dieser Slide mal live angepasst. Ähm die vom Datum her bleibt alles gleich. Ein bisschen was haben wir verschoben. Da habe ich dieInfo bekommen. Ähm sicherWebcast im nächsten Monat denn Ende Juno. Äh wir haben es jetzt bei net tut sich was On vieles mehr. ein neues Ontap Update steht ja an und wenn neues Ontap Software kommt, wird sich ja auch in anderen Bereichen etwas tun. Ähm und dann das Thema Snapcenter im Juli DB das Thema Fanblock, unser Sahnupdate, das haben wir in den August geschoben am 6.08. auch wieder als Webcast. Die Landing Pages Anmeldeseiten etc. wird alles angepasst in den nächsten Tagen, sodass sich dann auch jeder hier in der Runde anmelden kann.Gut, dann einmal noch ein Klick. Keine weiteren Fragen sind reingekommen. Damit bleibt mir an der Stelle nur noch zu sagen, danke schön, wenn Max mal auf klicken könnte, klicken könnte, klicken könnte, wenn wir auch die obligatorische Schlussseite haben an der Stelle. Max, vielenDank für den Ritt einmal durch die komplette AI Welt, was wir das Net damit zu tun haben und was da überhaupt alles so gibt. Ähm auch merci an Money für die Unterstützung in der Fragen und Antwortsektion und natürlich an alle der Teilnehmer, Teilnehmerinnen in der Runde heute hier. Vielen Dank, dass ihr euch die Stunde Zeit genommen habt und dann machen wir das Ding eine Minute vor Ende zu. Wir sehen uns dann im nächsten Monat wieder und bis dahin habt eine gute und sichere Zeit. Bis dann, tschü.
Lösungen von NetApp das Zusammenspiel von AI und Daten optimieren und Potenziale Eurer AI-Journey voll ausschöpfen! Es gibt ausserdem ein Update zum aktuellen AI-Pod und der AI-basierten Implementierung unserer Ransomware-Mustererkennung.