BlueXP is now NetApp Console
Monitor and run hybrid cloud data services
Buongiorno a tutti e benvenuti a questo secondo appuntamento del Techubs. Come sapete per chi ha già partecipato, stiamo proponendo tutta una serie di appuntamenti ogni due settimane su argomenti specifici con una caratterizzazione ben precisa, quella di sì presentare, quindi far vedere delle slide, ma di fare vedere proprio dal vivo con delle demo live le soluzioni che poi saranno il contenuto della presentazione. Questo è il secondo appuntamento, sarà dedicato anche questo a una soluzione cloud particolare, quindi la volta scorsa abbiamo parlato di Cloud Volume Ontap e di Cloud Manager. Oggi entriamo più nel dettaglio di una soluzione diversa e ce ne parlerà poi Romeo Cesarato che è qui con me e che va sotto il nome di Cloud Volume Services, quindi una soluzione ESA Service dedicata a chi sta cercando anche nel cloud performance elevate e latenze estremamente contenute. E vi ricordo che potete fare le vostre domande utilizzando il pannello domande e risposte. Noi alla fine della presentazione le leggeremo tutte e risponderemo direttamente online. E ultimacosa, questasessione viene anche registrata, poi alla fine dell'evento, dopo qualche giorno, riceverete un link, quindi se vi farà piacere rivedere la presentazione o condividerla con qualcun altro che non ha potuto partecipare ben venga. Vi annuncio anche l'argomento della prossima, il 16 dicembre cambiamo un po' argomento, ma non tanto, quindi entreremo nel mondo della containerizzazione con la soluzione Tradetap che porta la gestione, la protezione dell'informazione anche nel mondo cubernetes, quindi è un argomento interessante proprio nell'ottica anche di quelle soluzioni cloudnet. Io mi taccio e lascio la parola direttamente a Romeo.>> Grazie.Roberto. Grazie Roberto. Buongiorno a tutti e sono Romeo Cesarato. Oggi vi parlerò di Cloud Volume Service, quindi la flessibilità e le prestazioni che si possono ottenere con questa eh con questi servizi cloud di Netup. Ma prima di tutto parliamo del cloud in Italia. Vediamo che è un mercato che sta crescendo, sta crescendo molto. Si può vedere anche il mercato italiano, appunto, che ha avuto una crescita del 16% rispetto al 2020 quest'anno. Il public è hybrid cloud, quindi l'insieme ditutti i servizi ha avuto un incremento del 19%. Quello che è interessante anche il platform as a service, noi stiamo parlando per esempio con Cloud Volumion Service è all'interno di servizi platform as service di Netup e abbiamo una dinamica dicrescita moltoelevata, parliamo del 31%. A sinistra di questa slide potete vedere dove NETAP è posizionata e NETP è posizionata un po' su tutti i livelli di servizi cloud, quindi dal cloud storage all'ottimizzazione del computer operation e al cloud control e servizi di analytics e di monitoring. oltre avere la Hybrid Cloud Foundation di che offre tutti i servizi, appunto, netup posizionata su tutti gli hyperscaler.Ehm,scusate che sto cercando di capire come si muove la slide. Data fabric. data fabbric probabilmente l'avete già sentito chi ascolta Netapo, chi ha visto anche la precedente presentazione è la strategia di NETAP iniziata ben nel 2015 che permette di avere flessibilità nella mobilità e protezione del dato, sia un premis che nel cloud, dove appunto nei vari livelli di servizio offriamo come Hyb Club foundation, eh tutta la parte dove i nostri clienti affidano i loro dati, quindi eh la parte solida, diciamo così, dei sistemi storage o il flash FAS e ma qua entrano appunto anche il Cloud Volume Service e il Cloud Volume on, non ultimi la piattaforma Object StorageCreed Series. Poi entriamo anche sulla parte di gestione,della protezione, gestione della sicurezza, l'analisi, il monitoring e qui troviamo diverse soluzioni integrate anche nella soluzione del storage foundation on e quindi di Netup, ma anche servizi aggiuntivi. Con ultimi la parte di flessibilità che si chiama Cestone che permette di avere una esperienza, un premis come nel cloud per quanto riguarda l'acquisto e l'utilizzo delle risorse, quindi un pays e i nostri esperti professional service che aiutano a rendere questo ehm aiutano a rendere questo Lego più vicino alle vostre esigenze sfruttando al meglio i mattoncini a disposizione perché i clienti hanno delle necessità, quindi scalabilità perché i dati continuano a crescere, prestazioni, disponibilità il servizio, un'implementazione flessibile, la semplicità d'uso perché dopotutto è anche uno dei motivi perché si passa il cloud. E qui la risposta Netup in questo in quest'ambito è il cloud Volume Service. Cloud Volume, una soluzione storica di cloud a livello aziendale che permette archiviazione e gestione delle prestazionicon classe enterprise come fosse nei datasenter.Qui vediamo poi diversi altri servizi. Diciamo oggi non mi dilungo su spiegarvi questi servizi. In ogni caso sappiate che su Planetcom trovate tutti i servizi che sono indicati qui e che sono disponibili ehm anche ehm come si dice eh free trial. Quindi la maggior parte di questi servizi si possono anche provare eh senza eh effettivamente diciamo avere una un contratto specifico. Alcuni necessitano di una susscription, chiaramente con l'erromo di Cloudion. Cosa sono i clavolion? Scusate, ho fatto un click di troppo. I clavolion sono eh dei servizi di storage presenti nei data center gli App Scaler. In particolare, oggi parliamo di Azure Neta Files. Netfiles permette come di avere il lift and shift delle applicazioni, quindi senza una ritrogettazionedell'applicazionee permette di garantire le performance sub millisecond e deterministiche. Sappana, scusate, è certificato con Asure Netafice, ma non solo, anche lo troviamo la certificazione per quanto riguarda il Google Cloud. unaparticolarità appunto di questi servizi di Clavolion Service e Azure Netup Files che possiamo avere appunto personal deterministic multiprotocol NFS SMB anche in mutua in mutuo accesso e un ultimo cloud Volume Service, l'ultimo nato è Amazon FSX for Netap. In questo caso abbiamo una peculiarità della piattaforma. oltre a offrire anche l'asia è un po' un ibrido perché mentre Asure Netfli sono totalmente gestiti, in questo caso abbiamo la gestione in carico dellerskale e dell'hardware, ma abbiamo la flessibilità di avere una gestione logica delle risorse e quindi le storage virtual machine e altre necessità che vengono create con lo storage, quindi clavolion service sono dei servizi gestiti, integrati con i portali scaler, hanno permettono la creazione di volumi in pochi minuti, prestazioni deterministiche, multicipotocollo, deterministiche, multicipotocollo, deterministiche, multicipotocollo, integrate data protection con snapshot e diciamo altre altri servizi, per esempio la data protection di backup integrata con gli hyperscaler. o availability che sono servizi che vengono messi a disposizione nella creazione della risorsa. Cos'altro?Abbiamo anche i calculator che offrono, diciamo, una stima dei costi per quanto riguarda questi servizi. L'FSX Ontap, FSX Fornet onap è un po' più articolato, mentre altri si posizionano solo, diciamo così, su capacità e prestazioni. Per quanto riguarda FSX HTAP, il calcolo del costo del servizio include altre voci che sono anche includono il network, includono anche le Io è un po' articolato AVS sappiamo che tende ad avere tutti questi parametri, però il calculator aiuta moltissimo a dare una stima abbastanza precisa di quel che è in realtà il costo finale. Asure Netup Files. Asure Netup Files viene presentato e proposto in quattro in scusate in tre livelli di servizio, quindi standard, premium e ultra. Questi tre livelli di servizio hanno un costo eh per terabyte, ma hanno anche una prestazionegarantita per terabte in funzione del livello di servizio. Una prestazione dettata in IoS che però è, diciamo, in mutua ehm responsabilità coi megabte al secondo che vengono offerti per megyte. Dopo peremo la demo anche questa questo dettaglio. Ultimo e non ultimo, clavolio service di Google che hanno due possibilità di servizio, anzi più di due. Una si chiama quella sinistra CVS Performance che è praticamente uguale all'Azure Netup Files. Abbiamo tre livelli di servizio, lo standard premium, in questo caso si chiama Extreme e non ultra. Se vedete han le stesse prestazioni dell'Azure Netfli, hanno un costo per gigabyte allocato e hanno dei servizi di cross region replication che sono offerti on top al servizio. Questi 4 GB e mezzo ditrupput totale raggiungibile con le stream è equivalente a quello che si può ottenere con Netap. Per quanto riguarda invece l'altro servizio si chiama CVS Standard Software. È un servizio totalmente software define. Anche questo ha un costo per terabyte e qui abbiamo un valore di MB al secondo abbastanza elevato, cioè equivalente lestream del CVS performance, per esempio. però vedremo che c'è unaspecificità per quanto riguarda le IFPS. Quindi questo a sinistra è uno storage fisico, questo a destra è uno storage software define. Come vedete per terabyte arriviamo a un 128 M per TB, ma la capacità massima di un volume in funzione della dimensione di 640 MB/ second. Che dire? Io passerei già alla demo, almeno che non abbiate qualche domanda specifica. Sì, c'è già una domanda Romeo, quindi anche interessante secondo me proprio per posizionare in modo che poi passiamo alla demo. Eh, Giovanni ci chiede se abbiamo che nel suo caso ha una rete gestita e anche la parte di sicurezza ovviamente ci sono dei prerequisiti per un accesso al servizio cloud in caso si volesse provare. Parlo di porte di rete, protocolli da abilitare in ingresso uscita, client da installare, quindi un po' sulla parte di networking la domanda.Ma allora sicuramente i CLON Service sono posizionati per avere il servizio in cloud e ehm non cioè nonprems, quindi non col client prems, ma se voi avete per esempio un espressar out, una direct connect vieta di farlo. Chiaro che ci vuole la VPC, il servizio, per esempio, in meurea filice, ognihyperscale ha le sue peculiarità. Eh, Leure Netafes ha la Subnet Delegation per quanto riguarda laNF e quindi anche quella deve essere messa in peering con una VPN specifica. Invece per quanto riguarda AVS servono dei gateway. Ovviamente per accedere al servizio bisogna abilitare dei gateway, mettere in pieri, quindi a livello eh diciamo network della Hyperscaler sono da fare delle operazioni eh che nell'ambito cloud sono automatizzate con invece se si vuole connettere qualcosa a un Prems diventa un po' più macchinoso. Ecco, se è questa la domanda. Sì, credo che la domanda fosse legata proprio al fatto di voler provare il servizio e cosa serviva per poter provare il servizio. Quindi immagino abilitare Cloud Volume Service e provare autilizzare le risorse. >> Ma adesso magari vi faccio vedere anche una demo specifica e quindi magari risponde meglio alladomanda. >> Allora, >> Allora, >> Allora, >> per passare alla devo si fa un share. Ci siamo? Sì, vediamo. Sì, vediamo. Sì, vediamo. Ci riesco. Vedete il mio schermo? Si vede? mio schermo? Si vede? >> No, non ancora. >> Adesso sì, adesso sì. >> Perfetto. Allora, inizierei con Google, quindi il Google CloudPlatform. Qui ho come computer engine ho una mia virtual machine piccolina che eh è Allora, il progetto è un progetto Techlab eh dedicato, nel senso noi abbiamo dei progetti dedicati anche con molte restriction, devo dire la verità, non possiamo fare quello che vogliamo, eh, perché chiaramente serve anche per contenere in qualche modo i costi. Questo è il progetto, questa è la virtual machine sul quale sto lavorando, si chiama GCP Linux. Questa GCP Linux è una piccola VM che un due small che è posizionataeh sulla un network che è GCP VPCE. Ok? questa virtual machine. Se andiamo poi nel Google Platform, qua troviamo il menù se il Cloud Volumes. Cloud Volumes io l'ho messo come preferred, ma lo trovate nei servizi partner in basso, quindi nel menù di Google CloudPlatform, questa voce è sotto la voce partner. volumi. Io ne ho già creato uno e già pronto per farvi una demo. Ovviamente magari adesso vi faccio vedere come si può creare un volume. Comunque questo volume a puno data è un volume in una single zone, non ho attivato larelability, è uno standard SV, quindi abbiamo detto quello software e non quello performance. Perché?da un punto di vista tecnico del Techlab mi permettono questo. Molto semplice. Eh, dopo vediamo anche gli aspetti di snapshot, backup, eh resize. Chiaramente il tempo a disposizione è abbastanza limitato, quindi per dedicare iltempo a tutti quanti devoeh diciamo stringere, no, nella demo. Com'è possibile creare unclavolium? Chiaramente Clolion deve essere abilitato. La prima volta che entrate in Cloud Volion vi chiede se volete abilitare il servizio. Eh, a quel punto dovete dare l'autorizzazione e questo attiverà il servizio che vi permetterà poi di utilizzare il Clavonio. Qua per esempio con la creazione Clavonio si dà il nome di un volume che non creerò adesso perché è solo per farvi vedere come funziona il servizio CBS. Questo è standard SV oppure CVS Performance. Il CS performance offre i tre livelli di servizio. È quello, diciamo, più deterministico, lo è anche lo il software define, però questo offre livelli prestazionali e superiori in termini io qua vi chiede la Rizon, la zona, la volum se lo vogliamo. Io in questo caso, avendo lo standard SV, mi chiede se voglio la zone redundant per quanto riguarda la ridondanza, quindi non averlo solo in single zone, ma averlo in due valability zone, la capacità, il tipo di protocollo con cui sto creando questo volume. I protocolli possono essere SMB, NFS3. Io sto usando NFS3 perché così non devo fare, come si dice, join a domini, laVPC, l'esport policy e le snapshot policy, se voglio attivarle o no. A questo punto posso ehm andare avanti e fare il mio volume, ma come dicevo io ne ho già uno creato, l'ho chiamato ehm appunata e anche il mount point uguale e ho qua una virtual machine eh che ha ehm questo volume montato da 1 tera. L'ho montato su un data. Se vedete qui il mount point è appunto eh su questa rete. Quando create, dimenticavo, quando si crea il clavo e scusate il Cloudion Service su Google, in questo caso lo standard SV, e si dà la ehm, diciamo, la VPC, nella VPC a un certo punto chiede di creare reserved address range, di chiedere di chiede di creare il peering su quale VPC e chiede di creare la custom root propagation. Per me è tutto pronto, però ovviamente chi conosce eh Google sa eh di cosa sto parlando. Torniamo al nostro ehm sistema. Allora, io ho montato la il MoP, appunto, su appuno data e vi faccio vedere untest di performance fatto col flexible io. È già pronto il comando perché è comodo e con block size da 4K fatto su questo volume da 1 TB. Se guardate adesso la eh diciamo quello che sta accadendo, troviamo che abbiamo un circa 2000 per TB. Questo è il limite dello standard SV. Avevo detto che ha un limite di 128 MB. Adesso sto ho sto avendo 8 MB secondo perché sto facendo eh diciamo ho attivato un flexible con block size da 4Ke quindi possiamo dire che il limite di un volume eh standard SV è di 2000 per TB. Dopo casomai proviamo a fare resizing mentre lavoriamo con ehm diciamo un altro strumento, eh magari il come si chiama il leure fes. Vediamo se ho quello da 64k. No, va bene, lo devo mettere a mano. Eh, se metto il block size a 64K, quindi lavoriamo con blocchi molto più grandi, troveremo che lo stesso flexible IO fatto su quel volume è sempre di 2000 io. Quindi abbiamo il limite, diciamo, del 2000 io è fissato per 1 TB, però riusciamo a raggiungere 125 128 125 MB al secondo. Quindi abbiamo raggiunto il massimo possibile per 1 TB di servizio. Questo significa che potete usarlo sicuramentedovemagari avete adesso dico data warehouse o soluzioni dove è necessario un bloccaggio, un IO con bloccaggio elevato. Questa è una soluzione di standard SV che è molto interessante.Se infatti adesso lo metto a 128 K, quindi ancora più grande, troveremo che si abbassano gli IOPS perché il limite è diventato, diciamo, il trooput, quindi i megabyte, scusate, la band white e non il trupput degli AOPS. Quindi siamo arrivati al limite di 128 MB. Aumentando casomai i terabyte si possono aumentare questi valori per questo è un valore per terabyte. Attualmente abbiamo un valore di eh 1 ter.è possibile fare un resize del volume, quindi facendo un edit porto a due terre e poi intanto ci mette un po' non tantissimo, eh, però intanto magari ehm andiamo a guardare neta files.si fa live, quindi mentre la macchina lavora, tutto a caldo si può allargare, stringere nella stessa identico modo che si fa sugli storage etap. Ok, adesso l'ho lanciato. Finché lui eh fa resiz andiamo a vedere invece Azure Neta Files. Asure Neta Files è una piattaforma anch'essa che deve essere abilitata dove si trova beh, trovate in andate in cerca di tutti i servizi e trovate nei servizi storage trovate su Metafice. Io l'ho messo nelle favorite resource. Anche in questo caso, questo è l'account netupp. Qui non abbiamo i progetti, ma abbiamo i resource group. Ho due resource group, uno dedicato alla NF perché ha la subnet delegation,eh solitamente si fa un suo resource group, è un resource group dove invece dentro ho la client eccetera.Andiamo a vedere eh il Asion Metapes. In questo caso ho l'account. Questo account ha dentro un resource group che si chiama NF. Ehmnella creare il servizio qui abbiamo due concetti, abbiamo un concetto diverso, cioè abbiamo il capacity tool che minimo è 4 terra. Mi sono dimenticato di dirvi che su Google e AVS è possibile creare volumi da un terra minimo e poi a scalare.Eh, mentre Azuret Files richiede minimo 4 TB. Questi 4 TB sono eh, diciamo il minimo indispensabile per port per partire con capacity pool. Che cos'è il capacity pool? è un perimetro, diciamo così, di performance, è uno spazio, però poi in realtà è un perimetro di performance sul nel quale si possono creare i volumi, cioè mentre dall'altra parte, negli altri servizi si creano i volumi punto qui prima si crea un perimetro e all'interno si creano i volumi, cioè il capacity pool non è indirizzabile. Per indirizzare un capacity pool ho necessità ho necessità di creare un volume all'interno. Come avete visto il service level di questo capacity pool abbiamo visto, è standard. Io ho scelto il più economico, ovviamente che è 16 MB al secondo, ma questi 16 MB al secondo sono disponibili per 4 TB. Nel momento stesso che creo un volume, come in questo caso, ho creato un volume up data 1 di 1 TB, ho preso la quota di 1 TB per 16, quindi di 16, siccome i terabyte sono 4, dobbiamo fare 16 / 4 e questa saran megabbyte che ha questo volume. Nel senso, allora, nell'Azure Netfiles le prestazioni sono da prima assegnate o determinate dal livello di servizio che è il capacity pool. Poi questo livello di servizio viene eh parcellizzatoper i volumi che sono al loro interno. Questo lo fa in automatico, appunto. pure è possibile abilitare la funzionalità manuale e quindi assegnare ad ogni volume le performance desiderate a prescindere della capacità, le performance desiderate disponibili all'interno del di quel capacity full. In questo momento abbiamo queste performance, non ne abbiamo di più perché ho un capacity di 4 e quindi queste sono il totale disponibile che posso suddividere tra i vari eh voli. Quindi tornando un attimo alla nostra eh abbiamo una virtual machine anche qui. Adesso vi faccio vedere un comportamento esattamente diverso rispetto alla standard SV. Qui vedete che ho montato con questo IP qua, l'ho chiamato app data 1, un po' diverso, però è sempre questo volume da 1 TB e all'interno di Incapacity Pools di tipo standard e vi faccio vedere. Questo è un block size 4. Perfetto. Cosa succede in questo caso? Noi abbiamo ehpraticamente 4.000 per terabyte, mor perché abbiamo 1 TB e abbiamo però proprio perché è il massimo per 1 TB all'interno del capacity cool standard per 4 TB. Vediamo, appunto, invece di eh abbiamo 16 MB al secondo di prestazioni e 4.000 io. Vediamo un attimo, scusate. Se cambio i block size qua, avete visto prima con lo standard SV che riuscivo a avere, per esempio, anche con 64K manteneva l'IOPS e alzava i megabte al per secondo. Nel caso specifico, come vedete gli IOPS, io ho messo un block size di 64 che prima nello standard SV di Google continuava a darmi 2000 IO e mi aveva alzato la bandide. Nel caso specifico iltappo o comunque il bottle neck di questo volume sono i megabte secondo. Ha abbassato di molto le Io e ha mantenuto i megabyte al secondo. Proviamo anche qui a ridimensionare questo volume.e size e lo mettiamo a 4096 che è la dimensione massima di questo capacity pool. Come vedete scrive updating volume quota,cioèeh è vero, sto modificando uno spazio, ma in realtà lui ha modificato anche le quote prestazionali assegnate a questo volume. Quindi torniamo qui. Faccio un DF - BG. Trovate che il volume adesso è da 4 terra, non è più da 1. Ok? Se rilancio eh quello da 4K, visto che stiamo parlando col 4K, troveremo almeno 16.000. Eccolo qui. Eh, non mi fa più lo scrolling. Va bene, questa è la parte di bella del putti. Eh, praticamente abbiamo 16.000 Io e 65 MB seconds. Anche in questo caso lui raggiunge il massimo delle prestazioni. Non solo vi dico che queste IO sono sub millisecond. Eh, la latenza in quest'ambito è moltobassa, sotto il millisecondo. Se io porto block size al 64 si abbasseranno le IO e rimarranno i 65 me. Quindi diciamo che in quest'ambito abbiamo prestazioni deterministichee legate alla dimensione del volume, al capacity pool scelto, quindi il livello di servizio e anche la dimensione del capacity pool. Se volessi creare un volume più prestazionale, quindi più grande, dovrei allargare il capacity pool. Cosa viene, diciamo, qual è il costo in Asure Neta files? è il capacity pool. Il capacity pool èquello che viene conteggiato per quanto riguarda il i costi del servizio.Andiamo un attimo su GCP, poi andiamo torniamo su ehm torniamo andiamo su Asure eh scusate su AVS. Come vedete qua il volume è adesso di 2 terra e non è più di 1. Quindi se torno a fare quello che abbiamo fatto prima, eh, quindi come io avremo 4000 io perché ho raddoppiato il volume. Ecco, come vedete i PS sono 4.000. E se andiamo invece a fare un usare un block size più elevato, troveremo che arriveremo a 256 me, anzi dovrei averlo già in canna. Beh, prendo quello 128 64. Eccolo qua. Arriviamo a 250 m/s e sempre 4.000 io. Quindi, diciamo, abbiamo una coperta molto più ampia per quanto riguarda i megabte secondo, mentre più stretta rispetto gli IoS. Andiamo a vedere. Quindi abbiamo visto come funziona un po' l'asure neta files. Riassumo capacity pool è la dimensione dello spazio che allocate e le prestazioni che poi vengono suddivise all'interno tra tutti i volumi di a cui volete asservire. Eh,lo ripeto perché, appunto, è un concetto totalmente diverso da GCP e da AVS. Allora, purtroppo eh nel mio Techlab non mi è non sono autorizzato a creare ehm degli EFSX, però vi faccio vedere come si parte e poi ve lo faccio vedere da Cloud Manager. Allora, il nuovo servizio storage di Netup lo trovate nei servizi storage FSXeh Fornet Fontup. Selezionate FSX. A questo punto andate a creare FSE e tra FSX ce ne sono alcuni, scegliete l'FSX Hap. Sull FSX on si può avere il quick create oppure lo standard create. Vi faccio vedere solo alcune cose caratteristica di questo servizio. Ehm, il nome del file system, la capacità. Questa è la capacità complessiva attualmente, mentre un capacity pool si può allargare, si può stringere un Google Cloud Platform lo stesso. Eh, per quanto riguarda attualmente, dico perché le nuove release porteranno delle differenze, è possibile, siconfigura una dimensione, ma quella dimensione rimane. Non è possibile né allargarla né restringerla. Questa è la dimensione stile capacity pool, cioè non è la dimensione dei volumi, ma la dimensionedel perimetro che voi acquistate. Ok? Nel caso specifico, però non viene addebitato, eh diciamo il Sì, viene addebitato il perimetro, ma viene addebitato anche altre cose, tipo le IOPS, eccetera. Qui abbiamo per esempio un perimetro che possiamo dire 2048 2 perché lo voglio far piccolino. Nel caso specifico viene chiesto e abbiamo tre livelli di servizio. Questi livelli di servizio non sono per volume, ma sono overall. Mentre prima vedevamo dei livelli di servizio per specifico volume, qui abbiamo un livello totale. Bene, questo eh sistema può arrivare a 2 eh gig al secondo, 1 gig al secondo, a 512 m. Un volume può usare anche tutte le prestazioni,ok? però in funzione del sistema che si sceglie verrà creato dietro dell'hardware diverso che non è dato a sapere, cioè lo sappiamo, ma non è dato a sapere, non lo scegliamo. Noi scegliamo solo delle prestazioni. Possiamo dire mediamente che abbiamo 3000 IOPS per terabyte, sempre sub millisecond, anche FSX, e abbiamo un massimo mediamente di 750 MB al secondo per eh volume. Questo è il massimo che riusciamo a ottenere per singolo volume. Poi qua chiede la virtual VPC, eh la Subnet, la Security Incryption e poi la storage virtual machine name. Qui abbiamo il concetto di storage virtual machine come in uno storage netup normale, eh quindi come il COTP un premis, il nome del volume, la junction pat che vogliamo esportare, il volume size. Questo volume size è all'interno del perimetro che abbiamo deciso prima, la storage efficiency. Un'altra cosa bella che FSX a differenza di NF o GCP, la storage efficiency è un vantaggio per il cliente perché è abilitataeh oltre avere la deduplica compressione del dato ha anche la gestione del dato freddo call capacity pulering policy verso S3 come cloud, ma di un sistema gestito da parte di AVS. Next. Eh beh, adesso non vado avanti qua perché a parte mi dà degli errori proprio non sarò autorizzato, mi dà un errore di autorizzazione. È possibile crearlo anche da Cloud Voltap. Ecco, l'FSX HTUP è all'interno della canvas di cloud manager, perciò lo si gestisce come un CO differenza che non decido l'hardware perché e neanche la versione di Ontap, la versione diHTAP è aggiornata direttamente da Amazon nei time frame decisi quando si crea la storage. virtual machine la e scusate l'FSX. Allora, come si crea da di qua? Chiaramente è importante avere nelle credenzialiaverel'account e nell'account ehm vedere come si dice le suscription, cioè la suscription assegnata per creare unFSX Ontap. Comunque torniamo qui, proviamo a aggiungere il FSX Ontap. L'FS on po posso crearlo è sempre in viability, ma posso averlo inuna variability zone con due variability zone. Ehm, quindi scegliamo questo qui. Mi dice se ne voglio scoprire uno esistente, metto delle credenze, metto uno nuovo. Quindi posso dire di creare delle credenze esistenti e crearne delle nuove. Io ne creo una nuova. Eh,chiaramente qui, scusate, ma devo nascondere. Ok. nascondere.Ok. Eh, decido la region, ne prendo uno a caso. Eh, ecco, mi dà anche qua errore perché ho l'invalid credencia. Eh, purtroppo, allora, per quanto riguarda l'FSXnon ho le credenziali per poterlo fare nemmeno qui. Quindi, cosa faccio? Lavoro su questo demo che ha già degli FSX eh creati, no? Quindi qui vediamo che abbiamo un FSX on tapab, come vedete, un doppio variability zone e ehm vediamo che a un overview per quanto riguarda la capacità distribuita i volumi non ci sono volumi, posso aggiungere dei volumi. Questo si gestisce totalmente da cloud manager, quindi manager, quindi in realtà, allora posso gestirlo Cloud Manager, posso gestirlo anche da AVS Portal. Sì, soprattutto per la creazione dell SVM. Le SVM possono essere create via Cli dalla VS porta. Eh, lascio la custom policy voglio la storage efficiency o no. Se voglio la tiery,eh, se la conoscete, la tiery è la gestione dato freddo che abbiamo in tutti netup, quindi vengono esportati policy driven per singolo volume personalizzabile per singolo volume, vengono esportati i blocchi cosiddetti freddi, quindi non più utilizzati e vengono portati un'area storage più economica, nel caso specifico un S3 bucket che può essere ehm infrequentlyusedil volume il volume e quindi in teoria lui mi ha creato il volume, invece non me l'ha creato e questo è il bello della diretta del nostro della nostra demo. Questa demo è una fake demo, quindi ovviamente alcune cose non funzionano nel modo esattamente corretto e non funzionano come dovrebbero funzionare. In ogni caso, spero di essere stato, diciamo, esaustivo sulla sui primi due. lo posso essere, come avevo già anticipato, su AVS perché non ho, diciamo, la possibilità come autorizzazione dicreare questo servizio. Tenete presente che AVS è molto simile a NF in termini di gestione, quindi abbiamo una dimensione uguale al capacity pool sul quale all'interno create dei volumi, ma mentre qui abbiamo delle performance deterministiche per livello di servizio ecapacity pool, per quanto riguarda laAVS, la dimensione, cioè le prestazioni sonodisponibili a tutti i volumi, anche un singolo volume, non vengono parcellizzatee una volta data la dimensione, quella è non può essere modificata e non ha livelli di servizio differenti. Questa è la è la differenza tra ANF e FSX HTA in ABS. Ottimo.>> Io avrei terminato questa demo. Se non avete qualche domanda, >> se ci sono altre domande vi invito proprio a scriverle. Intanto ce n'è una eh di qualcuno che probabilmente ha partecipato alla al webinar scorso e diceva se pot puoi riassumere in poche parole le differenze fra CVO e CVS. >> Ok. Allora, Cloud è un servizio infrastructures servic, quindi quando voi scegliete il servizio è completamente gestito da voi, cioè dal cliente che compra le decide le virtual machine, il tipologia di disco, decide anche ehm tutto quel che riguarda l'aspetto networking eccetera dellasoluzione. soprattutto CVO permette lo Snap Mirror, cosa che permette anche l'FSX, per esempio Ontap su abos permette la replica da on cloud o da cloud a cloud. È possibile fare una replica da FSX on a CVO. Non è possibile fare una stessa replica, per esempio, da Azure Netafice a COppure da un prems aureetes. Lo snap mirror non è disponibile. Un'altra differenza è che il CBO, l'efficiency è un vantaggio per il cliente,mentre ANF oppure il CVS Google non è un vantaggio per il cliente, lo è su FSX di AVS. La differenza poi più importante è che CVO non ha performance deterministiche, è best effort. Non è possibile ottenere un sub millisecond latency su CVO, mentre lo è sulle altre piattaforme. Tant'è che CVS, Google e Asure Netafi sono anche certificati Satana. Abbiamo applicazioni critiche, cito un cliente perché è un è un public case historicas che usa neta files con Oracle, diverse istanze Oracle e usa Volume Shaing anche per risparmiare, diciamo, denaro nel momento stesso che le performance sono meno importanti in determinati orari. Perciò la differenza sostanziale sono performance, snap mirror, efficiency. >> Ne aggiungerei una anche le modalità di acquisto, nel senso che il cloud voglio Montupp, diciamo, è come dicevi giustamente tu è un'infrastraccia esa servic, quindi io vado a personalizzare lo storage del dell'hyper scaler, ma poi devo gestirlo. Dall'altro lato Cloud Volume Service o ANF, di fatto vado a comprare dello spazio con determinate performance e determinate caratteristiche e vado a utilizzarlo. Quindi è proprio anche dal punto di vista dell'utente finale una modalità diversa. Quindi per alcuni utenti, per alcuni progetti è necessario avere una soluzione infrastructure, per altri èrichiesto anche magari in ottica proprio di trasformazione digitale di andare verso soluzioni che sono platformle mensilmente piuttosto che quad ogni quarto piuttosto che annualmente. Ottimo. Direi che >> Sì, appunto C. >> Sì. No, dicevo che CBO si acquista licenza annuale 1 2 3 anni col capacity adesso, mentre Asorneta Files piuttosto che CV CVS Google, abbiamo un mettering Paygo, quindi magari tariffazione oraria, cioè abbiamo un diverso modello di addebito per quanto riguarda i costi. è proprio un approccio da un lato più infrastrutturale, dall'altro più cloud oriented. Normalmente chi usa risorse nel cloud è abituato proprio a questa tipologia diutilizzo. Ottimo. Bene, io ti ringrazio Romeo, ringrazio tutti i partecipanti. Vi invito, se interessati a partecipare anche al prossimo, vi ricordo il 16 dicembre, legato più al mondo della containerizzazione, a come iniziare a proteggere i dati anche in questo mondo che sta crescendo molto, no, legato anche a Cubernetes. Quindi vi invito e vi ringrazio e riceverete fra qualche giorno il link anche della registrazione. Buona giornata a tutti. Grazie. Buongiorno. Arrivederci.
Cloud Volumes Service è un servizio di file storage gestito che consente di migrare ed eseguire nel cloud complesse applicazioni aziendali basate su file senza alcuna riprogettazione.