BlueXP is now NetApp Console
Monitor and run hybrid cloud data services
Eh, buongiorno a tutti e benvenuti a questo che è ormai l'ottavo appuntamento dei nostri Tech Club. Eh, oggi con Gaspare e Marrali ci occuperemo di una soluzione molto interessante che fa parte di quelle soluzioni legate allo storage ad oggetti.Stor Geoget che non è una tecnologia nuova, ma che negli ultimi anni ha avuto una, come dire, un grande impulso, è stata riscoperta e viene utilizzata in diversi ambienti e oggi proprio oltre a come sempre una piccola presentazione andremo proprio a vedere nel dettaglio come utilizzarla andando anche a utilizzare eh scalar, quindi ci sarà una demo molto ma molto interessante. Come sempre vi ricordo, se avete domande di utilizzare l'apposita finestra di domande e risposte, in modo che poi noi possiamo leggerle e risponderemo a tutti durante la sessione o alla fine della dimostrazione.Eh, ultimoappunto, ovviamente i Tech Club non si fermano qui, ne abbiamo uno già in previsione per il prossimo 13 aprile.Anche questo molto interessante, molto d'attualità perché parleremo di Ramsongware e quindi di come Netap può offrire una protezione completa anche in questo ambito. Detto ciò, io vi taccio e lascio la parola a Gaspare. >> Sì, buongiorno a tutti e benvenuti a questo tech dedicato a Storage Grid. Sono Gaspare Marrali, faccio parte del gruppo di Roberto Soluzione ingegner basata a Milano. Questa sarà l'agenda di oggi. Ci sarà una parte descrittiva, primi spero 20-25 minuti in cui parlerò ad alti ad alto livello del dei concetti dell'object storage e farò una rapida introduzione di storage grid ealcune sue feature e poi mi concentrerò sulla parte demo. La parte demo sarà ovviamente una demo live, vedremo tipologie diverse di client S3 di accesso, farò vedere qualche use case di data sharing, che poi è quello che vediamo tutti i giorni, ad esempio, conl'utilizzo di Dropbox attraverso delleURL firmate e poi vedremo qualche feature pratica, quindi sullle encryption, sulle compliance è l'implementazionea livello dicloud con un uno use case suAVOS. Direi di partire subito e perché il mercato, diciamo, ha richiesto un terzo paradigma diaccesso ai dati, no? Siamo stati abituati sempre al paradigma di accesso a blocchi piuttosto che a file. Invece oggi si sta facendo, diciamo, m è richiesto sempre di più l'utilizzo di questo nuovo paradigma. Allora, per descriverne un po' il concetto facciouso di una di una di un'analogia, diciamo, del di un approccio al parcheggio, no? Eh, praticamente eh l'application l'applicazione a file quando eh deve accedere a un dato, quindi quando si deve approcciare un parcheggio in prossimità di un evento sportivo piuttosto che di un eh di un grosso aeroporto, quello che fa è andarsi a trovare il posto libero eh e magari memorizzarsi, diciamo, il posto poi doveha parcheggiato. Quindi deve conoscere un po' la struttura, no, del file system che c'è sotto a livello applicativo, quindi magari se il parcheggio è multivello, il settore, insomma, tante informazioni per poi ripescare il dato. Invece l'approccio al di un'applicazione Object Storage è di tipo data services, cioè io vedo, diciamo, il parcheggio come un servizio, appunto, un parcheggio. È come se fosse un parcheggio a pagamento dove io arrivo con la mia macchina nel mio entry point, quindi punto di ingresso, che per un'applicazione può essere un URL, eh lascio la macchina al custode e lui mi ritorna indietro un bigliettino che mi identificherà, diciamo, all'interno del parcheggio la mia macchina. Da quel momento in poi la transizione per l'applicazione si chiude, poi sarà compito del parcheggiatore, diciamo, applicare, no, andarmi a parcheggiare la macchina magari eh in un posto coperto, insomma, in maniera che sia sicura, ecceteraQuindi applicherà eh e possibilmente anche su informazioni che il cliente chiede, magari dice "Starò via per due tre settimane, magari se riesci a lavarmi la macchina". insomma, quindi ci sono dei metadati in più, no, inquesto approccio che possono essere dati affinché poi il eh appunto ilparcheggiatore può applicare ilivelli di servizi adeguati. Quindi questo questa prima caratteristica eh vediamo che l'object storage diciamo è semplice da utilizzare, no? le applicazioni, diciamo, diultima generazione, come cosiddette cloud native di platform 3, praticamente l'utilizzo e l'approvvigionamento di storage basta un URL, poi delle PI per fare dei put e dei get, quindi semplice operazione per fare ehm provisioning di storage. Un altro concetto importante, diciamo, del dell'objectorage è il fatto di avere un namespace geodistribuito, no? Eh, riprendendo un po' l'analogia di prima, significa che magari io eh da se da Milano devo andare a Roma piuttosto che a Palermo. Quindi una volta che parcheggio all'aeroporto di Milano la mia macchina viene dato il mio bigliettino. Se atterro a Roma, presentando lo stesso bigliettino, paradossalmente posso recuperare la mia macchina, cioè il parcheggiatore mi torna indietro alla mia macchina. Quindi questa possibilità di avere l'objectorage come una grid in cui in tutti i punti di ingresso posso recuperare il mio dato anche se non è localizzato.Altro concetto importante è la durabilità.cosa significa?che eh io voglio essere sicuro che una volta che metto il mio oggetto, diciamo, nel eh nell'object storage, praticamente non si danneggi, quindi eh non ne perdo l'integrità. perdo l'integrità. perdo l'integrità. Giusto per farvi un esempio, eh, AVS, che è uno dei più utilizzati object storage oggi più, diciamo, più vasti che abbiamo, dichiara una durabilità di eh 119 perché questo, diciamo, indice, questa feature si misura in una percentuale data dal numero di 9, quindi 99 virgola seguito da una serie di 9 dopo la virgola, no? 119, appunto, significano 99, poi 9 99i dopo la V, quindi unaprobabilità bassissima di perdere l'oggetto che praticamente significa che se io in un ehm bucket S3 di AVS memorizzo 10 milioni di Five o di oggetti, ho la probabilità di perderne uno ogni10.000 anni. praticamente ehmolto sicuro, quindi è, diciamo, una caratteristica intrinseca del dell'objectorage. Ho menzionato AVS non per caso. Ad oggi praticamente è risulta l'OBJ storage più utilizzato. È quello a cui va, diciamo, anche il merito dieh di aver portato, diciamo, a essere molto utilizzato questo tipo di paradigma. Lancia il primo servizio di S3, quindi Simple Storage Services, nel 2006. Da allora praticamente sono stati memorizzati su S3. E ho visto, diciamo, su Google così Googleando, 100 trilion di oggetti su, quindi veramente unavastità di oggetti e è considerato, diciamo, l'internet hard drive edi fatto hai ha eh cioè ha imposto un po' lo standard diaccesso all'objectorage. Diciamo che storicamente le prime PI per lo sviluppo e per accedere all'objectorage sono state create dal dalla SNIA, il si chiamano CDMI, ma adesso praticamente non le ha implementate, nonsi usano più. E poi c'è un altro pareg di Dimma diaccesso che proviene dall'open stack, è Swift, poi vedremo noi losupportiamo, però nonè moltissimo utilizzato, diciamo, comeS3. Quindi cosasuccede ad oggi? Tutti i produttori di object storage on prem praticamente cercano di essere eh compatibili con S3 diAVS, no? Noi abbiamo questa soluzione che si chiama appunto Storage Grid, non l'ha sviluppata direttamente in ETAP, ma proviene da un'acquisizione fatta nel 2010 eh di una società che si chiamava Biccast, che operava nel mondo medicale e poi da allora NETAP ha investito eh nello sviluppo e nell'inserire sempre nuove feature eh fino a praticamente ad oggi. Praticamente rilascio ogni anno, da qualche anno a questa parte, due release ufficiali, due major release e l'116 è uscita qualche settimana fa con l'aggiunta di dell'HPerscare Google per fare il la soluzione per implementare la soluzione Tying, poi l'implementazione della multimultivouan3 select che è una feature sempre di AVS e ilfatto di eh avere la possibilità di federare un tenant conl'active directory di Azure. Quindi dal punto di vista, diciamo, del mercato, abbiamo visto anche che l'adozione di storage grid sta crescendo molto suiclienti e quello che anche notiamo dal dalla base installata è che molti clienti che magari che l'acquistano per un workload iniziale, l'80% trovano sempre altri workload da farci girare sopra. Quindi un po' la tendenza che si ha a oggi quando si pensa all'OBG storage, cioè molti eh workload primari si stanno spostando verso questotipo diparadigma. Eh, ovviamente non parliamo di workload transazionali, ma diciamo workload di tipo data streaming piuttosto che analyting eh analytics, tiling attivo e cose di e workload di questo tipo. Adesso inizia un po' una carrellata di overview sul prodotto. Come dicevo prima, Storage Grid è una soluzione software defined e è molto scalabile, si può installare fino a 16 siti e può gestire questa quantità nell'ultima release fino a 640 PB con 300 billions di oggetti. La durabilità dichiarata poi di se utilizziamo le appliance di ultime generazioni addirittura è di 159. Quindi per riallacciarmi a quel discorso di prima e ovviamente la c'è tutta la parte diAB Cloud che si integra benissimo anche con la visione di netup del eh deldata fabric. Eh, dal punto di vista di architettura eh si tratta diavere appunto un global netpace che è distribuito su più siti dove un sito eh deve avere almeno tre storage node, poi Netup ne raccomanda quattro, appunto, per eh aumentarne l'affidabilità e eh uno storage min dove praticamente ci si collega per la gestione e anche la raccolta di metriche. che piuttosto che l'invio dei log al supporto netup e poi opzionalmente ci sono dei load balancer che sono gli end point diciamo di del mondo poi difrontend eh lo balancer che sono opzionali nel senso che possono essere forniti da noi direttamente e oppure si possono utilizzare anche quellidel cliente. Ovviamente questi siti sono Activela replica soprattutto dei metadati avviene in automatico, mentre la replica dei dati dipende dalla policy di ILM, la policy dim che gestisce poi la protezione del dato e all'internodellagrid, no? Quindi eh si decide di fare poi del un la protezione di replica piuttosto che di resure coding, poi dipende da dalla dal cliente stesso. Eh si può strik si può deployare in tre diverse modalità. La prima modalità è eh suun ambiente Wware attraverso virtual machine eh su eh metal, quindi eh su containers fondamentalmente e in questo caso la responsabilità di NETupp, come vedete, eh diciamo finisce ovviamente nelsoftware, no? Eh, quindi tutto il resto è a carico poi delcliente. Invece c'è la soluzione Blackbox, diciamo, eh dove Netup fornisce tutto quanto, sia l'hardware cheil software e che attraverso queste appliance che sono di diversa tipologia. L'ultima generazione, appunto, sono questi SG 6060 e addirittura abbiamo anche per particolare tipi di workload eh anche la soluzione all flash che è questo SGF 6024.E sotto invece vediamo gli appliance declinati nella come load balancer nel caso in cui vengono forniti direttamente daNetup. eh la carrata di future, quindi del di storage grid essere un ambiente multitenase, quindi la possibilità di segregare, diciamo, per applicazione, per utente, un tenant, quindi può essere associato ad un'applicazione, ad un utente, a un dipartimento di un'azienda, ad un'azienda stessa, nel caso in cui è pensato daun service provider. Ehm, supporta ovviamente il per l'autenticazione l'MFA, l'SO, eh supporta le feature di compliance per regulation, le encryption per i dati, eh per ovviamente m peravere quei 159 di durabilità a una serie di processi interni che eh che sono attivi eche costantemente vanno a controllare il dato, quindi processi di selfing e ovviamente supporta tutte le policy di S3, quindi suibucket poi ne vedremo alcuni esempi. altre funzionalità e altre caratteristiche,la quality of service sulla parte ditraffic classification, quindi regole che sono matcha per tenant, per endp e i limiti che si possono fare sul trupput piuttosto che sulle richieste. Cè molta flessibilità da questo punto di vista. Ovviamente questa traffic isolation si può applicare nel momento in cui si usano gli eh gli appliance diciamo come intesi come load balancer diNetup. Eh, poi la parte di rature coding fisica, eh sulle appliance fisiche c'è ehm usiamo questo coding che si chiama Dynamic Disk Pool, il DDP che praticamente è un ride 6, però in cui non c'è nessun disco in standby, quindi sia la parità che i dischidi Sper sono sparsi su tutti i dischi, sono tutti attivi, quindi c'è uncaso di fail c'è un fast level time abbastanza, diciamo, abbastanza, diciamo, abbastanza, diciamo, abbastanza veloce. Eh, un'altra nota sulle performance su sullecaratteristiche che differenzia Storage Grid è il fatto che si usano, diciamo, ehm si memorizzano i dati e i metadati in due luoghi separati. Quindi, ehm, i metadati sono eh gestiti da un no sequel databasee quindi e invece i dati sono gestiti separatamente da m dal dalla dal sì da questo database. Questo fa sì che sia le ricerche sia l'applicazione delle regole sianosì dinamiche e anche certe operazioni come le cancellazioni sono abbastanza ottimizzate. Dal punto di vista, tra virgolette, delle storage efficiency c'è la possibilità di avere in storage grid l'erure coding geografico, quindi la possibilità tra siti di spezzettare, diciamo, il mio dato in fragmenti e attraverso una sorta di parità e quindi calcolare la parità di questi fragmenti e quindi distribuirlo ovviamente su storage node geograficamente distribuiti sul territorio. Ovviamente questo poi c'è un limite sulla latenza che eh cheetap dichiara di che non deve superare i 100 misecondi perquesto tipo di feature. Ehm e poi c'è tutta la parte di tiring che supportiamo. Nell'ultima release abbiamo aggiunto anche Google Cloud, quindi la possibilità di fare del dell'offload dei dati da un prem sul sulla parte cloud. Eh, questo ad esempio potrebbe essere utile, non so, per sfruttare su AVS eh tutte le funzionalità che AVS ha fatto per il mondo S3, no? Quindi, praticamente spostare i dati eh su AVS, su un bucket AVS, applicare tutte delle funzionalità lambda ecceteraper fare del calcolo epoi magari eh si tornare indietro, diciamo, a ehm gestire i propri dati on prem. ehm supporta la compressione e diciamo il uno dei punti di forza deldello storage grid è appunto la gestione della policy del ILM Information Life Cycle Management che è la parte il motore che gestisce il ciclo di vita del dato all'interno della grid. Quindi, in base all'informazione che eh questo motore legge sul metadato dell'oggetto,io posso decidere dove eh memorizzarlo, eh per quanto tempo eche tipo di produzione applicare, quindi se devo fare una replica piuttosto che unrature coding. Questo, diciamo, vi dà l'idea della flessibilità, no, del giusto per dare idea della flessibilità che hanno questeregole, cioè io in base al contenuto posso fare tante regole in cui praticamente decido di fare un erration coding locale piuttosto che una copia remota eh o n copie remote, fare un rure coding geografico magari su tre siti ehm e diciamo La cosa importante è che gli storage node che noi abbiamo poi alla base per fare questi storage pool che sono il raggruppamentoed è dove i miei oggetti poi vanno a finire, non sono battezzati per ospitare solo le repliche, ma bensì possono fungere, diciamo, dapossono ospitare dati, diciamo, provenenti daure coding piuttosto che eh che da e da repliche, quindi non hanno, diciamo, un ruolo benpreciso. ben preciso. E così perconcludere questa prima parte,quindi quello che abbiamo notato è appunto che l'object storage non è più visto come il classico chip and deep, no? usato per la parte di archiviazione e basta, ma abbiamo notato che ehm diversi, diciamo, eh primary workload si stanno spostando anche su anche nelnostro installato. Importante il fatto che possa essere integrato facilmente perla soluzione Albit Cloud e adesso noi supportiamo tutti e tre gli upper scaler equindi cioè la possibilità di utilizzarlo come multiple workload, no? Quindi non solo diciamo per uno e basta. Ok, Robi, non so se sono stato troppo veloce, però sto vedendo.>> No,direi perfetto, anche perché adesso nella parte demo sicuramente poi vedremo dal vivo quello che tu hai raccontato e ci saranno sicuramente delle domande alla fine. Quindi avanti con la parte demo. >> Ok. Allora, la parte demo, eh, allora, l'architettura èdi questo tipo. Allora, abbiamo un lab on demand dove praticamente ehm abbiamo l'ultima release eh che la 11 si è installata. ci sono tre storage node, ehm ungateway dove abbiamo, diciamo, il punto di ingresso del della nostra grid e unadmin node. Questa quindi è l'installazione di storage grid e poi ci serviremo della parte, diciamo, di gestione. Io userò un Linux per far vedere, diciamo, le AVS HD piuttosto che l'interfaccia di una Windows per poi per montare, come vedere, un bucket S3, no? E poi sulla parte invece diAbbit Cloud eh userò un mio account freeware praticamente su Amazon S3 per cercare di implementare il discorso sia del cloud mirror che del cloud Storage Pool. Allora, il cloud storage pool e giusto per anticiparvi qualcosa, èil effettivamente la soluzione di tiring, no? Quindi l'offload del dato che avviene dalgrid sulbucket ST3 di AVS, però il metadato rimane comunque nel grid, quindi tutte le volte che io voglio accedere al dato devo comunque passare per la grid, per storage grid. Invece il cloud mirror, se per chi conosce praticamente Netup, è una sorta di snap Mirror dove praticamente io copio in maniera sincrona, diciamo, tutti i dati che mi vengono che di cui praticamente ho l'ingest in un bucket di storage grid e mi vengono portati, copiati così come sono, quindi in forma nativasul sulla parte dia di Amazon. Quindi se io volessi applicare delle funzionalità delle funzioni di S3 di Amazon, praticamente di AOS, eh di posso applicare sul bucket che eh che è popolato, diciamo, con tutti i dati che avevo su Storage Grid. E poi se cancello e ovviamente questi dati, cioè se cancello dei dati su Storage Grid, comunque rimangono suOS. Ecco, questo giusto per darvi un po' l'idea del dell'ambiente dovestiamo dove andiamo ad operare. Allora, adesso aspettate un attimo che devo condividere perché ci impiego un po'. Ditemi se vedete Roby, vedi la finestra? >> Sì,si vede condivisa. >> Sì. Ok.Quindi questo è il Lost denominato jumpst, diciamo, del dello schema di prima. E adesso eh ci colleghiamo direttamente all'interfaccia grafica, quindi sull'admin node, DC admin Node. E questa èl'interfaccia grafica, diciamo, nuova, nel senso che è cambiata rispetto alle precedenti, alle 115, proprio perché Netapo voleva un po' renderla simile al system manager. per chi conosce Netap, System Manager, per chi non lo conosce è il sistema di gestione di HTAP, quindi praticamente ha spostato, diciamo, la barra eh di gestione delle categorie dasopra, diciamo, sulla parte sinistra, dove piùo meno le categorie sono uguali, ha aggiunto solamente qualche wizard per la creazione dellevolan, diciamo i nuovi concetti introdotti. Quindi la Wizard si presenta in questa forma dove c'è una dashboard iniziale che dà più o meno lo stato del di tutta la grid, quindi lo stato attraverso, diciamo,la messaggistica mi dice, diciamo, la salute, no? fatemi vedere della grid piuttosto che ladescrizione dello spazio disponibile, quello occupato. Poi c'è la parte di monitoring sulla parte di backend, quindi il processamento delle regole ILM e quella di frontend, quindi la parte CS3 che, come vi dicevo prima, noi supportiamo anche la lo SwiftcomePI di accesso, poi ognuna poi si può gestire, si può monitorare sia in forma nativa che è questa, quindi con questi grafici dove si possono generare, diciamo, tutti si possono monitorare tutte le metriche. Oppure da qualche rilase a questa parte, eh supportiamo eh su store su sull'adminato un server Promitius, quindi praticamente c'è una raccolta di metriche sempre su tutto di questa tipologia, quindi ehm attraverso Grafana si è la possibilità poi di gestire e di monitorare live la parte distorage grit. Ok? Allora, eh la prima, beh, magari man mano che faccio la demo, magari descrivo per non perder tempo, no? Quindi, come abbiamo detto, la il primo passo che si fa eh quando si fa la grid praticamente per m usare le risorse della grid, praticamente bisogna creare un tenant. Eh, quindi quello che facciamo adesso è creare un tenant che possiamo associare o adun utente praticamente piuttosto che eh ad un'applicazione. Eh, specifichiamo la tipologia diprotocollo di accesso, possiamo mettere anche la eh volendo la unaquota epossiamo abilitare questeopzioni. L'atmos praticamente serve al fat serve a indicare che io poi su questo tentant voglio applicare eh la replica dei dati, quindi voglio eh praticamente abilitare il fatto che i suoi bucket, che sono questi contenitori logici, diciamo, dove poi metterò i miei dati, possono essere replicati al di fuori della grid, il fatto che può essere federato con qualche activity reactory o LED e questa è la nuova funzionalità che è stata introdotta. Otta il fatto che si possono fare delle S3 select per esportare, diciamo, porzione di qualche oggetto invece che recuperarlo tutto intero. Quindi, una volta praticamente fatto questo, ci chiede la conferma della password della tenant di gestione. E a questo punto, una volta creato l'utente, ci possiamo collegare sulla sull'interfaccia di gestione del tenant. Questa è anche cambiata rispetto all'altra versione. Si tendono sempre a mettere più informazioni sia a livello di visibilità dei bucket, dei gruppi e degli utenti e dei sottutenti che si possono configurare. Quindi, una volta creato l'utente, possiamo creare un bucket che ha, come dicevo prima, è ehpraticamente la il contenitore logico dove andrò a mettere i miei dati, la possibilità di abilitare il versioning o menoe quindi il bucket è creato e poi c'è la dobbiamo una volta creato il bucket dobbiamo creare le creden di accesso, quindi la seconda il protocollo S3 sono la key access e la ST access. Questo si può creare direttamente daquesta interfaccia. Possiamo stabilire se devono ruotare o meno, però in questo caso non ricreiamo corsi che non scadono e magari scarichiamo questo i credenziali d'accesso. Ok? E una volta, diciamo, avute queste credenziali di accesso, possiamo passare al ehm ad accedere a questo bucket. Allora, laprima modalità utilizzo questo softwarino praticamente che ehm mi consente di a di montare, diciamo, unbucket S3 di storage grid come se fosse un disco attaccato, eh, il classico disco dove poi, no, un'opera, no, pensiamo al Drawbox, no? Eh, quindi eh quello che si fa è eh si crea, diciamo,mappo da eh l'utente che ho creato prima, quindi aggiungo l'utente e di solito mi vabbè mi viene chiesto un nome,poi miviene chiesto che tipologia diobject store hai e qua in questo caso noi siamo ovviamente compatibili S3. Poi mi viene chiesto questo endpo eh, che se ricordate bene è la URL, il punto di accesso praticamente almia grid che in questo caso è dato dall'IP deldefault gateway e poi sul sull'end point dove gira l'S3 la porta in questo caso 10443 e poi qua mi viene specificatoeh le credenziali di accesso E eh come abbiamo visto prima sono scaricate praticamente sul download. Aspettate un attimo. Qui sono queste e queste. Quindi la secret è la è la chiave di accesso. Ok. Poi qua mi viene, quindi l'utente lo vede,eh l'AM 2 che era il bucket che avevo fatto dallamia interfaccia grafica. Quindi, praticamente io così ho mappato il mio bucket S3 distorage grid. eh che è vuoto ovviamente, però io qua posso fare qualsiasi tipo di operazione che facevo prima, quindi copy paste. Adesso io c'ho una directory con un po' di file, posso fare copy paste, insomma, lavorare comeil classico, diciamo, su un disco Windows, quindi tipo, no, scaricare immagini, file, insomma, as usually praticamente. Quindi questa è la prima modalità, no? quindi di m di utilizzo, diciamo, del Poi c'è un'altra modalità che è praticamente eh l'S3 Browser, che è un client che è un po' più tecnico dal punto di vista dell'S3 perché mi consente di eh di definire anche a livello di S3 certefeature sul sui bucket, no? Poilo vedremo. Quindi mh mi consente di definire alcune bucket policy per gestirne l'accesso anche tra diversi e di settare direttamente l'encryption piuttosto che aggiungere delle acne, insomma è un'interfaccia grafica che opera a livello diS3. Eh, altra modalità è la parte AC storage Grid, ovviamente è completamente compatibile con l'API di AVS e ehm ho installato sempre su questa macchina già unpacchettino praticamente deldella VS e già c'ho un profilogià definito eh del m eccoe questo load praticamente quindi si configurasempre uguale, nel senso simettono sempre le profileload sempre leAC ski e la Secret Key. E quindi a quel punto là il la USB è già configurata e vede lo storage grid, per cui quelloche posso fare è simulare un'applicazione che lancia delle API praticamente con non so tipo questa eh quest API che punta l'end point sempre eh che è il punto di ingresso del mio storage grid. eh di una lista di bucket di questo tenant che si chiama Load, no? Quindi praticamente mi esegue eh questo API dicendomi "Ok, questo utente ovviamente ha questi bucket home eh e demo. Posso fare posso lanciare poi diverseinsomma, l'PI poi hanno tante opzioni. Quello che si può fare poi usare la per condividere i dati, praticamente si usano queste URL prefirmate, no? Che eh praticamente cosa sono?Eh, allora, di default eh l'S3 tutti i dati sono privati, quindi ci accede solamente iltenant praticamente, però come anche nel caso di Drawbox io posso fare in modo di generare questa URL presigned praticamente e mandarla ad un utente esi può scaricare automaticamente senza utilizzare Secret e AC. SK direttamente il file. Questa è sempre una un API praticamente delDS3e si può generare con queste API. Quindi io dico praticamente eh un API di tipo S3, fammi generami la URL per questa immagine che ho sotto home, che praticamente se vediamo sotto home c'è questa immagine desert ehmper 60 giorni e me laattina attiva per 60 giorni. Quindi lui praticamente mi genera questa eh https file che io posso dare a qualsiasi utente. E praticamentelui si scarica, si sta scaricando. Questo ovviamente è un utente anonimo, quindi non ha bisogno di nessun access key e secret key per accedere ai miei file, quindi un modo per scambiarsi, diciamo, file senza aver bisogno di un server web. Stessacosa si può fare a livello di bucket. A livello di bucket esiste il concetto dibucket policy, quindi si possono settare eh praticamente con un JSON file laehgli accessi in lettura, in scrittura, ecceterano? De dei back. In questo caso, vediamoun esempio. Quindi se faccio partire sempre il mio browser S3, io ho questa home, diciamo, no? in cui praticamente eh faccio l'edit del bucket policy per dirgli questobucket policy, questo è unformato Jason in cui gli dico che tutti praticamente itenant possono accedere e possono eh del bucket home possono accedere, possono scaricarsi un file. Quindi in questo caso, se io vado su un'immagine ovviamente del bucketcopy e anche in questo caso posso dare quell' quel quella URL direttamente e scaricare praticamente la parte in maniera pubblica diciamo la parte tutti i dati che c'è quel bucket là. eh use case di questo tipo. Ad esempio, se c'è una distribuzione di software eh per l'aggiornamento di Sorpe, si può creare un bucket praticamente che viene distribuito su, non so sesi pensa ad un'azienda con diverse sedi distribuite sul territorio. questo bucket che contiene l'immagine di questo software che viene replicata su N sedi e poi su questo bucket si applica appunto questapolicy per cui tutti si possono scaricare poi l'immagine senza dover passare per un FTP o un web server. Ecco, questo eh queste sono un po' lemodalità di data sharing, che esistono nell S3. Ehok. Poi c'è possiamo fare il caso del dell'encryption.Allora, eh caso dell'incryption ovviamenteeh Storage Grid supporta diversi livelli di encryption, no? Nel senso si può fare a livello di white grid, quindi si può stabilire da configurationsi possono abilitare, diciamo, attraverso la grid option, l'encryption su tutta la grid, oppure si posso si può abilitare l'encryption e poi la tipologia d'encryption serve side, tutto sto che è clienti gestite direttamente da S3, dal server piuttosto che da un KMS esterno, insomma, ci sono tutte le possibilità. Allora, quello che vi faccio vedere adesso eh è un'encryption che eh può essere abilitata direttamente daun client, quindi in questo caso, eh utilizzo laVSe quindi c'è un'opzione sulla VSC che mi consente di generare la chiave direttamente dal server. E qua vi faccio vedere un la tipologia di cli che posso lanciare adesso la W in cui gli dico praticamente di ehm sempre riferita all'end point dello storage grid eh mi metti un oggetto che si chiama Encrypt File. Io qua in locale praticamente ho questo oggetto questo file ehm nel bucket home e mi fai e mi abiliti la server side the encryption con modalità praticamente due eh 256, quindi con Ok, quindi lui praticamente mi ha messo eh quel file nel eh nel bucket home e criptato. Questo si può vedere in diversi modi. può vedere tramite sempre la l'S3 browser che praticamente mi dice sul sulle properties mi dice che server encrypted oppureabbiamo direttamente dallastorage grid object metadata lookup abbiamo la possibilità dimettere di fare praticamente un'interrogazione del file. Scritto male il nome. E l'interrogazione del file che mi dice, tra le altre cose, dove è stato memorizzato.Quindi in questo caso abbiamo due copie del dato perché di default ehm c'è unam rule che di default mi fa la copia del dato sudue storage node e poi praticamente sulla parte metadati ho la possibilità di vedere un eh qua questo campo che mi dice che poi ildato ècreptato. Ok, io adesso allora vediamo un po' come siamo messi col tempo, perché sennò passerei alla parte di ehm Sì, allora passerei alla parte diCloud perché eh diciamo che dal punto di vista della compliance anche qua si può abilitare e si deve abilitare un'opzione white grid, eh quindi l'object Lock. Spendo due parole, giusto per informazione, manon faccio il passo direttamente allaparte di Hybrid per Sì. per l'implementazione eh la compliance supportiamo sia la parte object lock, quindi tramite S3 si può mettere la retention su eh su un oggetto ehme praticamente oppure dall'ultima versione possiamo settare su un bucket la bucket retention policy dove eh si mette di default quanto tempo il dato deverimanere diciamo eh non modificabilee l'object lock si applica siabilita, diciamo, sempre dalla dal tab configuration e una volta abilitato non si può tornare, diciamo, non si può più disabilitare e poi per bucket eh si deve anche abilitare a sua volta il un'opzione.Allora, direi di passare alla parte diAbbit Cloud, quindi e Ok, un po' di finestre. Allora, addit cloud, quindi facciamo prima il cloud mirror. Allora, io qua ho la ho il ho la mia, diciamo, utenza su AVS, quindi quello che faccio, intanto mi creo un utente e che serve poi a storage Grid per eh per collegarsi. lo eh lo creo con le modalità di access key e secret key. Eh gli do i permessi di full S3. Mi copio, me lo copio il locale, magari sempre la cessi ela secrety. Sì. Ok, poi vado sul servizio S3. Io ancora non ho nessun bucket creato, quindi mi creo un bucket. sia per la parte di che ospita la parte di cloud mirror dacloud mirror desk. Blaso tutto di default. Ok. E vabbè, già mi creo la parte di CSP Cloud Storage Pool che ospiterà la parte di Ital del Cloud Storage Pool. Ok. Eh, una volta Quindi adesso siamo sulla parte AVS, praticamente siamo già a posto. Ci spostiamo sulla parte di ehm di storage grid. Quindi, eh quello che facciamo è creare, ad esempio, sempre sul tenant load creare un sorgente dove metteremo i dati. Eh, quindi facciamo cloud mirror source. Ok,poi ci colleghiamo su tenant load. Perché di solito, allora, il cloud mirror si abilita di solito per tenant, quindi praticamente sulla parte eh poi bucket che andiamo a configurare,quindi questo è il bucket dove abiliteremo il cloud, il cloud mirror. siabilita praticamente qua dalla daquesta opzione. Prima però dobbiamo crearci sempre per lo stesso, diciamo, tenant la lend point. l'in point che in realtà questo eh è quello vecchio, siccome fa riferimento ad una e poi ve lo faccio vedere come si crea. Quindi creare l'end point significamettere un nome, quindi auss da Uri che praticamente è la è il è il punto d'accesso diAVS, quindi eh praticamente c'è praticamente c'è praticamente c'è unaURL riconosciuta e documentata per accedere al bucket S3 di AOS cheè questa, diciamo, quindi perché ho fatto il bucket sulla Iast e poi c'è questa URN che è una che è un'annotazione del Unified Resource Name che dove praticamente si identifica il bucket che abbiamo eh che abbiamo praticamentecostruito prima sul ehm su AVS. >> Gaspare, andrei verso la conclusione così abbiamo tempo anche di rispondere alle domande che ci sono. >> Ah, ok.Perché qua poi adesso praticamente c'è la parte di ehm Sì, praticamente Roby una volta configurato poi questo, purtroppo il tempo è un po' breve. Praticamente poi messi qua lachess key e la secret key, praticamente si crea questoil l'end point esi e si abilita, diciamo, sul diciamo, sul eh Vediamo un po'. Non usare il certificato. Ecco. Eh, perché mi sa che ho ci sono, diciamo, e probabilmente lae lo user l'avevo scritto. Ok. Nel senso che sideve probabilmente era lo user con le credenziali sbagliate che ho messo, quindi bisognerebbe recuperare, diciamo, quelledi prima. Ecco, però l'idea poi, Robi, è proprio quella dicreare questocon l'end point una volta praticamente abilitato sulla parte eh sulla parte, diciamo, di>> di cloud. eh sul tenant load che abbiamo aperto prima, praticamente si ehm si siura, diciamo, questo eh quindi tutti i file che vengono ingestati sulCM source vengono praticamente replicati dall'altra parte. Ottimo. No, è chiaro che se c'ètempo possorecuperare le la >> No, direi che è più importante magari rispondere alle domande, Gas. Ok. >> Anche perché è chiaro che in 25 minuti era difficile far vedere tutte le funzionalità. era giusto per unidea della>> era delle potenzialità >> delle potenzialità di storage grid e quindi noi siamo assolutamente disponibili come sempre visto che poi abbiamo anche nel nostro lab interno a MTAP la soluzione implementata quindi se avetenecessità o curiosità o volete approfondire siamo assolutamente disponibili per andare nel dettaglio e più tip. Andrei un po' a rispondere, ci sono alcune domande, gas. Allora, la prima è seè previsto l'utilizzo di Tech Library eh come ultimo stadio per archiviare anche i dati meno acceduti? Allora, eh sì, c'era una soluzione nativa, eh però èdeprecata attraverso, diciamo, il prodotto è una tapel per DBM. Adesso una soluzione che può essere adottata e è quella di considerare appunto un cloud storage pool. è una soluzione che è stata sviluppata con Fuji, con Fujifilm praticamente loro eh hanno questo, diciamo, virtualizzatore diciamo, virtualizzatore che vedono comeBucket S3 enoi vediamo come cloud storage pool dove tutti i dati vengono messi in questo cloud storage pool che in realtà vengono trattati da questa soluzione che è un server che poiprende questi dati e li memorizza in tappe library, diciamo, fisice fisiche. Si chiama object archive,>> open object archive ed è una soluzione, diciamo, che rientra nelle soluzioni integrate con eh conil partner, no? Quindi sì, esiste, però è sempre nonnativa direttamente perché noi stiamo un po' deprecando quello che era lave node, ma integrata con altre soluzioni, diciamo, soluzioni, diciamo, soluzioni, diciamo, che consentono di utilizzare delletapelab fisiche. Sì, >> ottimo. Altra domanda. Eh, ci sono delle dei fattori che possono andare a condizionare le performance in storage grid o quali sono i fattori che condizionano le performance che dobbiamo tenere in considerazione? Sì, allora, in genere ehm il sizing degli oggetti epoi anche dipende un po' daltipo di workload o di concorrenza, quindi se si ha tanta concurrency, diciamo, tante applicazioni, tanti workload load, sì, tante workload che girano, però poi in base, cioè conoscendo prima la tipologia di workload, magari si può mettere adeguatamente, diciamo, delle appliance fisiche che possono rispondere a quel tipo di workload. Noi abbiamo fatto dei test interni, diciamo, quindi abbiamogià un'idea eh basata poi sulmoltitudine di operazioni, quale potrebbe essere un sizing possibile? >> Ottimo. Ehm, c'è la possibilità con Storage Grid di proteggerci anche da Attacky Ransonware, se siccome >> Eh, sì. c'è la possibilità di adottare sempre attraverso delle policy ehm delle bucket policy di applicare, diciamo, il fatto che non siano sì modificabile, quindi applicare anche le classiche, diciamo, operazioni diobject locking. Quindi sì, direi di sì, che anche sta diventando anche un tema caldo anche lato storage grid, diciamo, object, però sì, però sì, però sì, >> ottimo. Eh, l'ultima la penultima domanda. Cloud mirror può avere anche destinazioni multiple? Cloud mirror. Sì, perché posso creare degli end point diversi e come abbiamo visto prima, quindi Sì. Ottimo. C'è un'ultimissima domanda. Ehm, so che esiste anche l'S3 nativo su Ontap. Se ci dai due parole delle differenze fra la soluzione nativa che è Storage Grid e invece il servizio S3 su Onap.Sì. Allora, diciamo che ehm diciamo Storage Grid è una soluzione enterprise, quindi con tutte le caratteristiche che ci sono dietro, no? Quindi le resure coding, il fatto che supporta quasi completamente tutte le S3 di AVS, quindi il multiparting, insomma tuttequeste funzionalità. Invece Ontap su S3, eh, diciamo S3 su on realtà eh supporta una un subset di tutte queste funzionalità, no? non supporta le resure coding, eh non supporta, mi sembra, dalla prossima versione supporterà il multiparting, quindi diciamo che è più vista come unambiente S3 di sviluppo eh per applicazioni, diciamo, nattive, cloud, ma eh è considerato oppure come il timing susì come febbr pool, quindi semplice in cui praticamente le operazioni da fare sono semplicemente put get, no? Eh, per cui in questo contesto sì, però ecco la differenza è sia nella dimensione didati gestire, Onap S3 arriviamo fino a 300 TB epoi nel subset di API che eventualmente si deve utilizzare per utilizzare Honda P3. Seè semplice va bene, se invece ci si richiede qualche altra API, diciamo, un po' più complessa, ecco, nonpuò, cioè non può non può andar bene.>> Ottimo, direi che abbiamo risposto. Fammi controllare a tutte le domande. Niente, quindi ringrazio tutti per la partecipazione, ringrazio Gaspare ovviamente per la Gaspare per la presentazione e la demo. Siamo ovviamente disponibili a rispondere a ulteriori domande piuttosto che a farvi vedere ancora più in deep la soluzione che chiaramente qui abbiamo fatto un po' un volo ad alta quota, no? Quindi ci sono tante caratteristiche interessanti che poi devono essere carate nella vostra realtà. Quindi se avete bisogno più che volentieri vi ricordo il prossimo Techub che sarà il 13 aprile e sarà dedicato alle soluzioni ransonware di quindi buona giornata ancora a tutti. Ciao, grazie.
StorageGRID archivia, protegge e preserva i dati non strutturati per un utilizzo multiuso, inclusa la gestione automatica del ciclo di vita per lunghi periodi di tempo.