BlueXP is now NetApp Console
Monitor and run hybrid cloud data services
Bene, buongiorno a tutti e benvenuti a questo che è il settimo appuntamento di questi nostri Tech Club. Oggi con Maurizio, che avete già conosciuto in altri Tech Club, parleremo di un argomento estremamente importante e molto,come dire, nell'agenda di tutti CEO e Co. parleremo di governance e compliance parleremo proprio grazie a una soluzione NETup che va sotto il nome di cloud data sense, una soluzione estremamente interessante, semplice da gestire a livello cloud, ma che permette di andare a così a controllare e poi vedremo come anche i dati in un ambiente idrico. Io non vi rubo altro tempo, lascerei la parola direttamente a Maurizio. Vi ricordo che come sempre questeTechub sono registrati, quindi potete anche guardarvi successivamente e si compongono sempre di una prima parte di presentazione, ma poi anche di una parte in cui andiamo a vedere proprio la soluzione funzionale. Bene, buon teclub a tutti e Maurizio a te la parola. Grazie Roberto, ben arrivati o bentornati per quelli che ci stanno seguendo da piùappuntamenti. Appunto, io sono Maurizio Granata, per chi non mi conoscesse, Consalting Solution Engineer di Netup. Oggi la tematica eh esula un pochino da quello che è il mio mondo tradizionale dello storage. Eh devo ammettere che anch'io quando ho approcciato questa soluzione eh ho avuto un attimino una reazione del tipo "Ma io non mi occupo disicurezza, non sono un security officer". E poi sono rimasto invece sorpreso dalla semplicità e del fatto che comunque tocca tematiche che in realtà ogni giorno eh sono importanti credo per tutti noi. Faccio un pochino distoria perché siamo arrivati qui eh nel 2019 NETAP acquisisce un'azienda israeliana eh chiamata Cogno. Si occupava fondamentalmente di compliance, un prodotto, una soluzione cloud native. eh quindi estremamente moderna che si occupava prettamente dicompliance, in particolare per quello che sono le regolamentazioni, tipo la nostra GDPR europeo. Quando è stata acquisita l'azienda Netap ha ehm chiamato il prodotto cloudcompliance. Da allora, quindi dal 2019, in realtà c'è stata un'evoluzione estremamenteampia, perché dove siamo oggi in realtà, diciamo, la compliance è un aspetto sicuramente importante, ma di nuovo io non sono un security officer, ma eh mi devo occupare in qualche modo di data governance. Che cosa vuol dire? Fondamentalmente le tutte le aziende ci chiedono di conoscere quelli che sono i dati, dove sono i dati oggi, come oggi si possono mettere i dati su cloud o premie in varie locazioni, che tipologie di dati stiamo in qualche modo conservando,se i dati sono appunto ben conservati, protetti, organizzati, devo mantenere la compliance. Cioè un gran parlare, come dire, dello zero trasta. Eh, in questigiorni siamo tutti, può dire molto attenti anche alle tematiche di attacchi ransomware. Facile a dirsi, un po' meno a farsi. Uno degli aspetti è sapere quali sono i proprio dati sensibili, quelli da proteggere e poi ovviamente prendere, come dire, delleazioni. Questo un po' è come dire l'idea, il paradigma delladata governance, facile a dirsi, un po' meno a farsi perché poi tecnicamente, come detto abbiamo n problematiche,di dati che crescono in modo esponenziale e questo è sotto gli occhi di tutti, che possono essere appunto arrivare dai device più disparati e possono essere conservati, appunto, come dicevamo, su un cloud, su un S3 storage. all'interno del data center presso unpartner. Quindi diventa estremamente importante riuscire a trovare tutte queste informazioni che crescono giorno dopo giorno in un modo efficiente, quindi sostanzialmente non deve diventare un lavoro, come dire, part-time il fatto di poter conoscere e mappare i propri dati, ma deve essere qualcosa di estremamente veloce, efficiente, automatizzato il più possibile e devo avere anche la facoltà di riconoscere quelli che sono i sensibili, ovvero quelli che effettivamente conservano delle informazioni sensibili dei di dei più della più varie nature. Per questo, appunto, c'è stata un'evoluzione moltoforte di data. Questo è il nome del prodotto nell'ultimo anno, direi, quindi non più cloud compliance ma data sense. Qual è l'obiettivo? Qual è lo scopo del datasense? data sense è appunto una soluzione di data governance, la chiamiamo, che ci permette di capire, di mappare, poi vediamo che cosa vuol dire mappare e classificare i dati, non solo nel cloud, ma anche un Prem, quindi ovunque essi siano dislocati e ci possono sostanzialmente fornire delle informazioni di valore, sicuramente per ridurre quelle che sono le problematiche di compliance e di sicurezza. c'è un modulo, appunto, dedicato eh alla compliance e la sicurezza, ma non solo, ma anche per governare e gestire il dato anche nell'ottica delle attività più, come dire, tradizionali eh degli staff IT, quindi a sistemi, per esempio, in una progetto di migrazione, piuttosto che ridurre eh il costo dello storage. Come facciamo? Quindi dico subito che DataSense è un prodotto pensato non tanto per il security officer che sicuramente può trovare delle informazioni di valore da quelli che sono i dati estratti, le informazioni estratte da datasense, ma è pensato per i team IT, quindi non gli specialisti di sicurezza. Lo vedrete estremamente semplice, estremamente eh intuitivo. Quindi perché mi può aiutare sapere dove sono i miei dati? dicevo, appunto, da un lato per la sicurezza, ma anche, per esempio, per gli aspetti dellamigrazione, cioè molte aziende oggi stanno affrontando quelle che sono tematiche di migrazione per esempio verso il cloud. Quindi io devo innanzitutto sapere quali informazioni sto per portare all'interno del di un cloud provider pubblico oppure sto esponendo al pubblico. Devo sapere se questi dati sono effettivamente protetti, se le policy mie aziendali mi permettono sostanzialmente di muovere questi dati all'esterno del perimetro del data center e dove posso collegarli eh in modo sicuro. Come faccio? vado a sostanzialmente identificare quelli che sono i contenuti dei dati, nello specifico quelle che sono le eh informazioni personali e soprattutto quelle che sono leinformazioni sensibili. Tutto questo viene poi esposto attraverso delle dashboard. Adesso la parte, diciamo, come dire, introduttiva sarà molto breve. preferisco farvi vedere eh unademo di come funziona il prodotto che mi permettono sostanzialmente di avere un'immediata visibilitàdel di quelle che sono le informazioni che io sto immagazzinando. Come detto, il prodotto funziona sia un premise che nel cloud multicloud di fatto si può mettere installare ovunque. Io non sono un cliente netup, non ho storage netupp, non è un problema. Qui stiamo trattando sostanzialmente i dati, quindi a prescindere del fatto che leaziende abbiano o non abbiano Storage Netup, Cloud DataSense è in grado sostanzialmente di lavorare in modo eh indipendente e autonomo, sia per quanto riguarda la parte di dati eh come dire non strutturati, quindi parliamo di file, che anche c'è una bella integrazione con il mondo database. c'è la possibilità, poi sostanzialmente il prodotto è già eh modellato e c'è un'evoluzione estremamente spinta, grosso modo ogni mese esce una nuova ehm release del prodotto, quindi con aggiornamenti con anche poi la possibilità di andare a eh fornire dei feedback proprio al team di sviluppo direttamente dalla disusione interface per chiedere magari nuove funzionalità o di introdurre un certo tipologia di ricercae con la possibilità appunto poi di modellare e customizzarlo a seconda di quelle che sono leproprie le proprie esigenze. Ad altissimo livello, come funziona? Ho dei cosiddetti data source, quindi laddove vado a leggere quelle che sono le informazioni. Poi c'è un motore di analytics di intelligenza artificiale che utilizza algoritmi di machine learning, di natural processing language che mi permettono sostanzialmente di andare a estrarre e quelle che sono le informazioni di metadato eh dei file che vado ad analizzare. metado, intendo il nome del file, l'estensione, eh la data di creazione, data di accesso del file e successivamente di andare a vedere all'interno proprio deifile, all'interno dei dati che sto andando ad analizzare se essi contengono delle informazioni di tipo personale o di tipo sensibile. vengono poi applicate delle policy ed ecco che ho sostanzialmente delle dashboard che adesso andiamo a vedere che mi permettono poi di andare a visivamente e in pochi istanti andare a riconoscere quelli che sono i miei dati sensibili. ho la possibilità poi di prendere delle azioni, quindi vedremo poi come eh muovere cancellare i propri dati o creare ovviamente degli alert, per cui mi avvisano e nel caso io sono in grado già ad identificare quelli che sono i dati sensibili presenti sui miei storage.Quali sono appunto i data source? Vi dicevo, non è pensato solo per lo storage netup, non è pensato solo per il cloud, ma questi sono di fatto quelli che noi chiamiamo i data source, quindi le fonti dei dati che poi vanno ad alimentare cloud data sense e sono appunto delle più svariate, sia per quanto riguarda il mondo, come dire, dato non strutturato, si parte dai sistemi on premis, ma qualunque share SNB o NFS su qualunque tipologia di storage, anche ovviamente non ETAP sono eh dei data source leggibili da data sense. Eh si passa a tutte quelle che sono le soluzioni cloud netupp, quindi cloud volume monta, Pionup File, FSX per Amazon, passando poi per le soluzioni tipo S3, anche qui è uno storage molto utilizzato, eh account OneDrive, SharePoint e a quello che è tutto il mondo deidatabase, quindi Oracle, Myse Sequel,Server, Mongodb e così via. Poi sul sito cloud.netub.com netup.com, cioè di volta in volta quelli che sono i data source aggiornati e leggibili. Per ultimo c'è la parte SharePoint e la parte oggetti e quindi fondamentalmente tutti quelli che sono le soluzioni di storage oggetti compatibili S3 sono dei data source leggibili appunto dacloud data sense.Quali sono le tipologie di informazioni? in particolare le informazioni personali che il sistema va a identificare.Da quelle, diciamo, più generali. Qua c'è sostanzialmente solo un subset, poi ovviamente la documentazione è molto più eh più vasta e permette di vedere nello specifico quali sono le informazioni che il sistema riconosce in modo automatico, quindi da informazioni generali tipo eh indirizzo email, numero di carte di credito, IBAN, IP address, piuttosto che il codice fiscale, visto che siamo in Italia, ma non solo, eh informazioni di tipo sensibile personale, quindi informazioni sullo stato di salute. sull'etnia, eh sul tipo di categorizzate per esempio per lo human resources, quindi curriculum vite piuttosto che revisioni dei dipendenti di tipo legal e così via. Queste informazioni sono da un lato identificate come pattern univoci, laddove per esempio ci sono dei pattern unici come il codice fiscale è sostanzialmente sempre quello, ma dall'alto dall'altro vengono utilizzati degli algoritmi appunto di machine learning per cui l'informazione viene contestualizzata. Poi vi spiego meglio che cosa significa. Quindi non riconosce semplicemente il pattern, ma anche sostanzialmente il contesto all'interno del quale questo pattern è stato individuato. Dal punto di vista di architettura invece di infrastruttura e poi ci avviamo rapidamente verso quella che è la demo. Come funziona? Come vi dicevo, può essere installato sia nel cloud, in questo caso l'installazione è estremamente rapida, su tutti i tre i cloud provider, quindi VS, Azure e eh e GCP, oppure può essere utilizzato on Prem qualora appunto eh l'azienda che ne fa utilizzo non abbia unaccount, un contratto sul cloud, quindi viene installata fondamentalmente, o meglio, viene deployata nel cloud. Questa operazione eh è estremamente rapida, sostanzialmente in 20-25 minuti. Dal momento in cui lancio il deploy ho già a disposizione eh la piattaforma appunto che utilizza una modalità SAS. viene deployata questapiattaforma su cui poi girerà sostanzialmente tutto il motore di Analytics e viene conservati quelli che sono gli indici dei dati. L'accesso aquesti dati avviene tramite una dashboard che probabilmente molti di voi già conoscono, che è quella del cloud manager, che è un po' poi il focal point di tutte quelle che sono le soluzioni di Netup. sta diventando il focal point di tutte le soluzioni età, quindi dal cloud manager direttamente io sono in grado di accedere a eh alla dashboard di cloud data sense. Quindi è importante dire che queste informazioni che vengono raccolte e indicizzate non escono mai, come dire, verso l'esterno, non vanno mai verso, che ne so, i cloud Netup, ma rimangono confinate all'interno dei server su cui appunto è deployato il cloud data Sens, quindi c'è un livello disicurezza. Dopodiché ho i miei data source, quindi le sorgenti da cui io poi andrò a leggere e estrarre eh quelli che sono i dati che, appunto, abbiamo detto sono eh di tipo standard, quindi di fatto ci connettiamo utilizzando protocolli assolutamente standard, chips NFS, S3, esattamente come farebbe unqualunque client per andare poi a leggere questi dati. Quindi non c'è necessità di avere agent nulla di sofisticato. Estremamente semplice anche il processo di deployment. Un occhio velocissimo. Poi io in realtà sono un tecnico, però l'informazione la trovate anche sul sito cloud.netup.com netup.com a quelli che sono poi i costi. C'è una cosa molto importante, come tutti i prodotti Netup sono eh probabili gratuitamente per un POC, ma anche per lasciatemi dire in produzione, appunto, c'è un free tier che è gratuito eh per quanto riguarda la subscription, quindi non pago nulla se la quantità di dati è inferiore a 1 TB. Quindi se ho 1 TB, voglio semplicemente provare a vedere quali sono gli effetti del cloud data sense sui miei dati aziendali, c'è la possibilità appunto di provarlo gratuitamente eh andando sul sito cloud.netup.com.Successivamente tutti i terabyte eh ulteriori oltre al terabyte hanno un costo fisso se utilizzo un modello Pay Go, quindi lo compro direttamente da un marketplace eh di un hyperscaler che è di $50 per TBte al mese. Esiste anche una modalità, come dire, di subscription annuale, il cosiddetto bring your own license. In questo caso poi ci sono degli sconti ovviamente che vengono poi garantiti daNetupo dai propri partner. C'è un questi costi escludono ovviamente quelli che sono i costi di eh chiamiamoli infrastruttura, quindi fondamentalmente la le virtual machine che poi ospiteranno le mie istanze di cloud data sense. Vado subito alla demo perché il prodotto è più facile raccontarvelo facendolo vedere che non utilizzando delle slide. Vado a condividere il mio schermo. Ok, a questo punto dovreste vedere già la dashboard. Qui sono su Cloud Manager, probabilmente molti di voi già la lo conoscono, quindi cloudmanager.com. Sono registrato, sto utilizzando il mio account. Questo è il punto di ingresso di tutte quelle che sono le soluzioni, diciamo, eh nuove di Netup. Quindi qui sono su Canvas, vedo che ho in questo momento configurato un'instanza eh CVO su Google che sta replicando con sistema on prem. Posso settare le repliche restore ed ecco qua che trovo la mia tab data sense.La clicco e quello che accade che mi porteràappunto su quella che è la dashboard del datasense.Dashboard che è fatta di vari pannelli. Parto da quello che è la configurazione, quindi abbiamo parlato di data source, vi faccio vedere sostanzialmente che cosa significa. Quindi qui ho già 12 ambienti configurati. Eh l'ambiente ovviamente è stato preconfigurato per eh per ragioni di tempo. Qui ho la possibilità sostanzialmente in primis di integrarlo con un Active Directory, come è stato fatto in questo caso. A che cosa serve l'integrazione con Active Directory? Nel caso in cui appunto ci sia un Active Directory, il sistema è anche in grado di andare a correlare oltre al SID, quindi è un numero fondamentalmente poco un codice poco comprensibile perun umano, quelle che sono effettivamente se ehm l'identità, quindi nome e cognome eh indirizzo email degli utenti che poi accedono effettivamente ai miei dati laddove ci sono. Quindi mi semplifica ulteriormente la vita. quello che posso fare appunto and ti interrompo solo un secondo perché ci siamo dimenticati di dire che se ci sono delle domande possono utilizzare il pannello domande e risposte che poi alla fine risponderemo a tutte. Scusa per l'interruzione.>> Ci mancherebbe assolutamente. Mettete pure le domande, poi alla fine leandiamo a rivedere. Ok? Eh, dicevo, ho la possibilità appunto di aggiungere i data source. Eh, vi ho detto appunto F share di qualunque tipo, database server, quelli che ci siamo raccontati, eh One Drive account, SharePoint, AVS o qualunque object storage qui ovviamente il sistema è stato eh prepopolato, eh quindi ho dei bucket S3, eh ho un ambiente Journet File, ho un ambiente Cloud Volume Montp per vedere. andiamo avedere eh come è fatta la configurazione. Quindi io quello che farò è aggiungere eh l'indirizzo IP e devo avere permessi di eh sola lettura perlomeno eh sugli ambienti che andrò poi a monitorare con Cloud DataSense e il sistema aggiunge in automatico il data source. Qui ad esempio siamo su un ambiente Cloud Volume Onap, quindi che poi esporrà delleshare NFS e chips la possibilità all'interno del mio cloud volume o comunque di qualunque data source di andare a definire qual è il tipo di scan eh che ehm voglio andare a fare e questo è un aspetto estremamente importante.Normalmente un'attività di questo tipo, andare ad analizzare personal information, può richiedere attività di scan che durano settimane o mesi, perché ovviamente andare a leggere il contenuto di ogni singolo file è un'attività impegnativa. Qui ho la possibilità, in modo molto semplice, di andare a definire il tipo di scan. Beh, innanzitutto posso spegnere lo scan di un sistema di cui non mi interessa. Se, per esempio, ho delle share, dei volumi di cui non mi interessa effettuare lo scan, li disabilito. Dopodiché abbiamo due modalità di scan, uno è map e l'altro è map and classify. Che differenza c'è? Eh, MAP è uno scan veloce, quindi va sostanzialmente a leggere semplicemente quelli che sono i metadati eh dei miei file, quindi nome de file, estensione, data di creazione e così via. E questo permette sostanzialmente in poche ore di andare a ehm indicizzare già un grandissima quantità didati, quindi centinaia di terabyte in poche ore. mi dà una vista, come dire, complessiva globale che è estremamente utile ai fini della governance. Per esempio, se io voglio andare più in profondità invece del contenuto dei file, quindi identificare quelle che sono le informazioni personale, sceglierò Map and Classify. In questo caso scrivo MAP and classify. Oltre l'attività di map delsistema dei metadatiDataSense andrà a leggere effettivamente il contenuto deimiei dati, dei miei file, andando a cercare quelli che sono eh le informazioni personali. L'attività è continua, quindi eh lavirtual machine che ospita il cloud data sense, devo dire, piuttosto è piuttosto carrozzata perché effettivamente fa un lavoro eh come dire continuo 24 ore al giorno e 7 giorni su 7 in cui va continuamente a leggere anche in modo ovviamente poi incrementale quelli che sono eh quelli che sono i dati e va a classificarli e andando a individuare quelle che sono le informazioni sensibili. in cui posso andare a ehm leggere e aggiungere sostanzialmente tutti quelli che sono i miei data source.Eh qui, ad esempio, dei sistemi OneDrive o delle Share SNB generiche che potrebbero essere dei Windows Server. C'è un altro aspetto che volevo farvi vedere che è questo activate low scan qui è sostanzialmente un quality of service. Cosa vuol dire? Di fatto, appunto, l'attività di Map and Classify legge in continuazione i miei dati per quel le aziende che hanno preoccupazione che il sistema non vada a impattare, come dire, le performance degli storage di produzione, io leggo in continuazione, ho degli storage che magari sono obsoleti e o sono già carichi. Ecco che io posso attivare lo slow scan. A quel punto rinuncerò alla velocità, come dire, eh di classificazione dei miei dati, però guadagnerò sostanzialmente il fatto che non avrò mai alcun tipo di impatto eh sulle performance degli storage che sto effettivamente andando a eh a mappare. Quindi in pochi, come dire, minuti, avendo le credenziali, io sono in grado di aggiungere i miei ehm data source, quindi, appunto, abbiamo visti tutti i tipo, dei OneDrive, potrei andare a vedere OneDrive, qui vado eh aggiungere un utente OneDrive, posso farlo in modalità, come dire, bike, quindi 100 utenti alla volta ed ecco che il sistema comincia a lavorare, a mappare. Qui abbiamo già fatto ovviamente questo lavoro. Ehm, vado sulla tab di governance, quindi questa secondo me è estremamente interessante per chi si occupa nello specifico, come dire, di IT più tradizionale perché mi dà delle informazioni assolutamente divalore. Andiamo a vederlo. Quindi, innanzitutto, ho ehm una mappa complessiva di quelli che sono i miei dati scannati. In questo momento il sistema mi dice che ho sto sono andato a classificare 492 GB eh di dati complessivamente,236.000 file e 45 tabelle all'interno di database. Quello che posso fare è andare a crearmi un mata report, ok? Quindi un report che sia leggibile, intanto lo genero, eh ancora più o meno un minuto per generare questo report e andare a vedere da questa dashboard, da questo cruscotto, quelle che sono come sono messi i miei dati, non da un punto di vista di informazioni, come dire, personali, da un punto di vista proprio di date. Quindi, ad esempio, io scopro che ho eh 10.000 ehm file che sono di tipo stale, cioè non sono utilizzati. Ale data eh significa per cloud data sense che ci sono dei dati che non sono toccati da almeno 3 anni. Ecco qua. Nel frattempo si è generato il mio report, adesso lo andremo a aprire. Quindi ci sono dati che sono freddi, sono lì abbandonati. Eh, ci sono dati di tipo non business. Che cosa sono i dati non business? per esempio video, per esempio eh immagini, per esempio MP3, quindi dati che non sono tendenzialmente strettamente correlati al business. Questo è quello che fa il riconoscimento che fa di default. Il sistema poi ovviamente eh può essere customizzabile. Altro dato importante, quelli che sono i file duplicati, quindi ho 41.000 file che sono duplicati all'interno di tutti quelli che sono i miei data source. Questo scenario tipico, mio dato lo salvo su un bucket S3, poi me lo ne tengo su una share eh aziendale, quindi si crea, come dire, una proliferazione dei dati. Nel frattempo andiamo a vedere il nostro report che si è generato, mi genera appunto una un PDF, avete visto che è sostanzialmente real time. Qui dentro ritrovo poi sostanzialmente tutte quelle che sono leinformazioni di dettaglio, ok? per quanto riguarda la parte di data doc governance, sia con la parte digrafici che con tutte le tabelline, insomma, ha un report estremamente interessante, leggibile, come dire, in pochi minuti e comprensibile anche da chi non si occupa fondamentalmente di eh di sicurezza. torno indietro, ho la possibilità, appunto, di avere delle policy. Alcune sono già state pre eh come dire create, ma poi avrò la possibilità, magari ne facciamo una in un secondo momento, eh di andarmene a creare di personale, quindi policy che vanno a identificare dati di tipo personale, non so, le credit card piuttosto che eh criminal procedure e così via. Posso vedere poi quali sono i top data repository per il livello dieh come dire sensibilità del dato. Quindi io so che sul mio CVO, cui tra l'altro stavamo guardando prima ci sono 130.000 file, ce ne sono una porzione 7800 che sono di tipo sensibili e personali. Quindi io potrei con un click andare a fare un drill down, ok? e andrò a vedere quelli che sono effettivamente i file che sono considerati sensibili e personali. Qua già visivamente riesco a vedere dove sono dislocati i miei file, quindi sul CVO.Questo file contiene 611 informazioni di tipo sensitive. Ok, posso vedere poi il dettaglio. Scopro che questo file è su un working environment chiamato New Data Store, effettivamente quello che abbiamo visto prima. E qual è il pad del file che sto andando a guardare? alcune informazioni di metadato, dimensione del file, quando è stato scoperto, la data di creazione, se ci sono dei duplicati, in questo caso ce ne sono 495 e poi scopro che ci sono 611 informazioni personali all'interno di questo file. Se io lo clicco e vado a vedere di investigare i risultati in pochi secondi, ecco che eh mi farà vedere sostanzialmente quelle che sono eh le informazioni personali, contenuti. Ovviamente per non come dire rompere la regola della privacy non vedrò le informazioni stesse. In questo caso trattandosi di dati sensibili e personali, quindi anche come amministratore non sono in grado di vedere, però ho la possibilità poi di andarmi a scaricare eh come dire un report rapidamente attraverso questo pulsante e poi passarlo magari al mio security officer. Vi dicevo prima che il fatto il discovery del dato sibile o del dato personale viene fatto in modo contestualizzato. Che cosa significa? Eh, non so, prendiamo per esempio la riferenza sul sull'etnia. Ehm, sono cose distinte eh dire mh Maurizio è italianopiuttosto che dire Maurizio ama il cibo italiano. Quindi, in questo caso il sistema è in grado di capire laddove, nel contesto eh il dato sia considerato sensibile. Maurizio è italiano, piuttosto che il dato non è sensibile. Maurizio ama il cibo italiano e a quel punto viene sostanzialmente scartato dalla dal mio report. Quindi è una discovery estremamente intelligente. Torno indietro. Ecco, questo è un altro aspetto che mi piace molto,interessante. File che hanno open permission, vale a dire che sono messe in alcune eh, come dire locazioni in cui però non sono protetti da una CL. Qui immediatamente io posso andare, per esempio, qui c'ho un 1% di dati che sono aperti al pubblico, cliccoe lui immediatamente mi fa vedere quello che è il report dei dati. Allora, se vado a vedere nuovamente eh quelli che sono i dettagli, qui per esempio ho un file Ryan della Maggiora CV. Di nuovo, ho le informazioni. Ho informazioni che mi dicono che ehm si trova su un bucket S3 eh sul che si chiama compliance demo file. Il file pat è questo, R della Maggior CV. La categoria è già stato categorizzato, appunto, è fa parte del dell'universo HR, si tratta di un curriculum, la dimensione del file ed è aperto come permessi, quindi open to public. Se io lo clicco, probabilmente ecco qua, in effetti riesco ad accedere al file ed effettivamente ha un curriculum vita che contiene effettivamente delle informazioni di tipo personale. Quindi questo è eh un file aperto, eh potrebbe essere un campanello d'allarme. E a questo punto devo decidere che cosa fare. Posso aggiungere delle etichette, quindi scrivere una nuova etichetta, che ne so, aperto al pubblico piuttosto che sensibile,posso assegnare eventualmente un task a un utente che sia nel cloud manager. Il cloud manager poi in questo caso ehm può avere più utenti, appunto, con ruoli differenti. Nel mio caso è un utente sostanzialmente ridonlive, vogliono evitare che faccia danni. Quindi posso assegnare il tasco dire alzare una bandierina e dire all'utente, che ne so, al mio security officer, attenzione che qui c'è questo file, andiamo a verificare.Posso segnare delle etichette. Qua c'è un'integrazione con IP di Azure per chi lo sta utilizzando, ma posso fare anche delle azioni tipo copiare il file e lo posso copiare in questo momento su una share NFS. Eh, vi anticipo che appunto essendoci una grande evoluzione su questo prodotto, a breve, non ho ancora un'eta, però tendenzialmente a breve ci dovrebbe essere un'integrazione con eh cloud sync diNetup, per cui questo file potrà essere spostato o copiato eh in qualunque repository S3, uno Share Chiefs, NFS o dove voglio. potrei muovere il file, quindi in questo caso potrei dire sposto il file da un'altra parte. Ecco, apro una piccola parentesi. Questo non è un prodotto di archiviazione, come dire, come quelli classici, per cui non lascia uno sta file nel momento in cui il file viene mosso, ma proprio lo prende e lo muove senza lasciare nulla su un'altra locazione. E infine posso qui può piacere o non piacere decidere di cancellare eh di cancellare il mio file. Questo file è sensibile, si trova su un bucket S3 aperto eh a internet, posso decidere di cancellarlo direttamente. L'operazione ovviamente può essere fatta ehm in modo, come dire singolo oppure potrei farlo eh in modo bike per tutti quanti i miei file che ho trovato. Posso anche ovviamente creare delle policy personalizzate, quindi andare a decidere che vado a fare una ricerca per, non lo so, utenti, permessi per un certo utente piuttosto che per l'oner, piuttosto che eh solo i file che si trovano su un certo storage repository e così via. Una volta che ho selezionato tutti quelli che sono ehm i miei criteri di ricerca, eh la categoria, il livello di sensibilità, posso andarmi a creare direttamente da qui una policy, chiamiamo test, dare dei dettagli e anche qui alla policy puoi assegnare delle operazioni che verranno eseguite in modo automatico, quindi per esempio cancellare automaticamente i file che appartengono, che matano questapolicy piuttosto che essere, come dire, più morbidi, quindi mandare una mail update, mandare una mail ogni giorno, ogni settimana, ogni mese agli utenti che vanno ehm agli utenti che sono interessati questo tipo dipolicy, di modo che facciano prestinoattenzione alla ehm al file chesono andato a segnalare.Torniamo un attimo indietro. Ecco, qui ho altre statistiche interessanti, quindi per esempio l'età dei miei dati. Qui scopro sostanzialmente che la maggior parte dei miei eh file sono stati modificati in un periodo che va dall'1 ai 3 anni successivo. Qui potrei andare appunto a cliccare ogni volta e lui mi riporta all'elenco dettagliato di tutti quelli che sono i file interessati da quel tipo di policy. Posso andare a vedere la data di creazione, la data di accesso, questo, ecco, è importante. Nel momento in cui, per esempio, io andrò a fare unamigrazione, potrò andare a decidere quali dati effettivamente andare a migrare oppure quali dati andare a spostare su storage menopregiati, quindi andare a ridurre quelli che sono i costi insieme al fatto di ridurre il numero di duplicati, quindi la dimensione dei dati, quindi ci sono tutta una serie di eh di statistiche e in più la classificazione dei dati che appunto viene fatta eh con quella logica che vi raccontavo prima di tipo, come dire contestuale. Per cui per varie categorie di dati, quindi che vanno dall'Har al finance al marketing, lui mi identifica effettivamente quelli che sono ehm i dati effettivamente all'interno di quelle categorie. Prendiamone uno a caso, non lo so. Torchase order. Ci sono dei dati, eh, ok, di tipo personale all'interno di questi file. Prendiamo in uno a caso, scopriamo che sono su S3. Andiamo a vedere perché sono dati personali. Qui ho tutti i dettagli. Ecco qua. Questo file, per esempio, contiene eh degli email address, ok? Che sono ovviamente mascherati nuovamente per ragioni di privacy, però già ho un'idea di quello che quali sono le tipologie di dati personali che sono incluse all'interno di questo di questi file. E questo per quanto riguarda, diciamo, una veloce carrellata sulle funzionalità digovernance. Eh, rapidamente volevo mostrarvi anche un attimino quello che era un po', come dire, l'eredità, il motivo per cui era nato questo prodotto, che è l'aspetto appunto dellacompliance, quindi qualcosa di più legato a alla sicurezza e alla compliance. Anche qui ho una dashboard che è estremamente intuitiva. Posso andare a vedere, selezionare se ho molti eh data source, molti working environment, su quali dei miei work environment voglio visualizzare questa dashboard. Quindi per andare a fare delle attività di monitoraggio più di più di dettaglio. Questo va bene, le lascio tutte. Anche qui mi dà sostanzialmente un riepilogo di quello che sono le i sistemi che sono stati ehm eh mappati e scannati e ho una visione globale di quelli che sono la quantità di dati non sensibili, personali, sensibili e personali. Anche qui andando a vedere poi con la possibilità di andare a vedere per esempio dati personali laddove ci sono dei file che contengono, che ne so, la credit card. Vado a cliccare, automaticamente mi riporta su report che poi è scaricabile in formato CSV, quindi poi me lo posso rielaborare con calma e scopro che, per esempio, questo file su OneDrive eh appartiene a questo Star Pository, Bob e così via, contiene dei dati di tipo personale. Se vado a fare un click ulteriore, ecco che effettivamente ci sono 1000 referenze a numeri di carta di credito all'interno di questo file. Qui potrò indagare se effettivamente ha senso che eh questo file sia effettivamente su un OneDrive, che gli accessi siano corretti e così via. sviluppare tutto quello che è il lavoro di compliance, così come per i dati sensibili ai personali che appunto vanno dallaeh l'orientamento sessuale, riferimenti allo stato disalute, eh procedure criminali piuttosto che credenze religiose, appartenzione e così via. Anche tutte queste, quelle che vedete appunto con ehm questo simbolo, sono appunto quelle che poi vengono riconosciute attraverso questo identificatore anche del contesto e non solo del pattern eh dell'informazione. Qui ho un'altra possibilità poi che è quella fondamentalmente di andarmi a creare dei report. Eh ce ne sono alcuni eh che sono già eh predefiniti eh quindi per esempio quello sul privacy risk piuttosto che quello PC DSS. fondamentalmente sono carte di credito. Andando a cliccare, ecco qua, in pochi secondi io avrò la possibilità di andarmi a creare un report in cui ci sono contenute informazioni relative a quelle che sono eh i file che contengono le carte di credito. E poi c'è un altro aspetto interessante eh che è l'aspetto dei data subject, ovvero sia eh quali sono le persone eh referenziate all'interno dei file. Ecco qui eh c'è la possibilità di andarsi a creare in modo pressoché istantaneo i data. Per esempio, per l'aspetto del GDPR, ricordo che c'è la possibilità right to be forgot. Quindi io voglio sapere, per esempio, dove sono tutti ehm i dati per dove sono le referenze dei dati riferite a un certo tipo dipersona. Quindi noi andiamo a cercare un utente che si chiama John Do e dico "Ok, voglio sapere dove sono, dove è referenziato l'utente John Do". Faccio un search, ecco qua che lui mi dice in, avete visto, sostanzialmente in modo istantaneo, ho 177 risultati, posso anche qui generarmi al volo ilreport di modo che poi lo posso poi rielaborare. Ok.Oppure posso andare, andiamo a vederlo rapidamente. Sta mettendo di più a aprire Word che non a generare report. Mentre aper Word, posso andare a fare investigator result e anche qui mi va a fornire tutti i dettagli, quindi lo del file. Ecco qua, nel frattempo ho aperto il report per il data subo. Qui mi dà tutta una serie di informazioni dove si trovano i miei file e così via, ma ho la possibilità appunto direttamente dallaconsole di andare a vedere file per file dove è referenziato John Do. Anche qui potrò andare a cercare direttamente. Se io clicco qua sopra, ecco che all'interno di questo file effettivamente John Do è referenziato, quindi io potrei poi prendere delle azioni, che ne so, spostare e fare quello che abbiamo visto prima. Quindi le potenzialità, le policy, ecco, lo guardiamo rapidamente, ci sono tutta una serie di policy eh, come dire, predefinite eh per le varie eh come dire normative mondiali e quindi che vanno dai Brasilian a interessa poco, Credit Carda, Credit card Policy, eh piuttosto chequello che ci possono interessare di più e sono GDPR, ehm ma posso poi andare effettivamente a crearmene di policy personalizzate e farle appunto girare, andare a fornire delle informazioni di valore. Come avete visto è estremamente semplice eh il prodotto, direi molto intuitivo, quindi non serve essere degli esperti di sicurezza. Ovviamente, per ragioni anche di tempo, ho compresso al massimo quelle che sono le eh le funzionalità. Eh, però direi che credo, spero di avervi dato, come dire, la sensazione di quanto effettivamente questoprodotto sia semplice. Non è ovviamente l'unico prodotto sul mercato, eh, questo lo sappiamo benissimo, ci sono soluzioni collaudate. Quello che credo sia uno dei valori più importanti sia appunto questa semplicità, questa zero configuration, cioè spesso progetti di privacy, di data governance vengono fatti e sono estremamente complessi, possono prendere settimane, mesi, richiedono professional services per essere implementati, soprattutto in ambienti complessi. Ehm, quindi i costi, i tempi di scan e dei dati sono altrettanto lunghi e di fatto poi diventa, come dire, un lavoro part- time gestire la data governance. In questo caso l'idea è quello di semplificare e automatizzare il tutto. Quindi il prodotto si mette in piedi veramente in pochissimo tempo. Il deploy è questione di 20 minuti sulcloud. La personalizzazione può essere fatta, ma è estremamente rapida, dopodiché il sistema si autogestisce. delle informazioni di eh di valore. Eh c'è un'altra accuratezza e come vi dicevo c'è la possibilità eh nel momento in cui ehm io vado a creare un report di fornire dei feedback direttamente dall'interno della del prodotto. C'è proprio un pulsantino, l'ho dimenticato di farvelo vedere, comunque give feedback nel caso in cui, per esempio, il sistema abbia identificato un dato come personale e in realtà personale non è. Questo permette sostanzialmente poi all'algoritmo dicome dire autoimparare e a noi di eh ricostruire sostanzialmente modelli dieh di machine learning e quindi migliorarli nel tempo. L'interfaccia è semplice per chi già sta utilizzando ehm M. Bene, mi sembra di capire che Maurizio ha qualche problema. Vediamo se riesce a ricollegarsi. Fortunatamente ha finito la demo, quindi in tempi perfetti aveva il timer fissato su 45, quindi ha chiuso la connessione. No, quello che stava dicendo Maurizio secondo me è molto interessante, soprattutto per il fatto di poter avere una, come dire, un'idea molto chiara di come sono distribuiti i dati in azienda, di come vengono utilizzati, di quali dati sono all'interno dellevarie risorse, quindi è qualcosa di estremamente utile per chiunque perché sappiamo benissimo come le aziende hanno necessità di gestire e di tenere sotto controllo le informazioni in termini di privacy. Sì, in termini di compliance o >> fondamentalmente alle virtual machine e allo storage che poi eh Cloud DataSense va a utilizzare per appunto far girare tutti eh tutti i propri servizi. >> Abbiamo perso >> la domanda data sens a Mi sentite adesso? Sì,adesso sei tornato regime. Ci sono anche qualche domanda, eh, quindi poi quando concludi rispondiamo alle domande. >> Ok, sto guardando le domande. Sì, cioè ehmse il datasense ha necessità di accedere ai data source, utilizza agenti oppure deve avere accesso diretto al data source. Ehm, non utilizza agenti, eh utilizza protocolli standard, quindi per le Share SNB, usa SNB. e deve avere ovviamente un utente con permessi di lettura eh sulla Share SNB. Per NFS usa NFS, per S3 si comporta come un qualunque client S3 e quindi va ad accedere ai dati. Nonè necessaria alcuna integrazione, servono ovviamente utente e password indirizzo IP dei data source. Non so, ci sono altre domande, Roberto. >> Sì, ce n'erano altre due. Una è legata alla versione OMPE. eh se si comporta come un appliance o se ha bisogno della licenza di sistema operativo su cui si appoggia. Ok, ho risposto, ma non >> forse nonmi si sentiva quandoho risposto. No, la versione un primer chiede ovviamente eh la licenza del sistema operativo della virtual machine che ospita poi data sense è a carico delcliente. Quella cloud invece è come unappliance e quindi tutto eh tutto incluso. E c'era anche un'altra domanda legata al alla parte di database. Tu all'inizio hai citato anche che accede all'interno del database. Ci sono già database che sono certificati per questa soluzione? >> Sì, ci sono appunto una serie di database che vanno da Sequel, Oracle, Mongodb, My Sequel, Sapana. C'è un altro aspetto interessante che ho messo prima, ma ne approfitto appunto per raccontarlo, che è una funzionalità cosiddetta di data fusion, cioè il sistema identifica eh delle informazioni personale in base a, come dire, quelli che sono gli standard mordiali, quindi i pattern della carta di credito sono sempre quelli, però come azienda privata io potrei avere la possibilità di avere delle informazioni personali in base dei miei codici. penso, non so, sales order piuttosto che codici univoci all'interno delladell'azienda. In questo caso, appunto, questa funzionalità di data fusion permette di collegare un database interno, eh, quindi dire, guarda, all'interno di questa database, in questa tabella, c'è questa questo campo che per me rappresenta un'informazione personale. Istruisco sostanzialmente il datasense e datasense andrà a cercare quel pattern specifico e customizzato all'interno dei miei data source. Quindi non solo quello che è standard e predefinito da Netup, ma c'è anche appunto la possibilità di andare a customizzare con questa integrazione con i database appunto che vi ho elencato poco fa. >> Un'ultima domanda, non so, magari avevo risposto nel momento in cui non si sentiva, era legata all'interfaccia inglese, al supporto ovviamente per le varie lingue e se in qualche maniera faceva anche un una scanner OCR per identificare le informazioni all'interno delle immagini. Non c'è ancora. Eh, la funzionalità discanner OCR è qualcosa, diciamo, eh under investigation. Eh, il supporto per le lingue, per l'interfaccia. Al momento l'abbiamo perso un'altra volta. Eh, finisco io la frase, fortunatamente la risposta. il supporto attualmente in inglese, ma anche questo è in roadmap per un supporto sulla parte italiana. Quindi è un, come diceva Maurizio, è un è una soluzione in estrema evoluzione, come tutte le soluzioni servizi cloud, quindi vi invito a ad andare spesso anche sul sito cloud.net.com netupp.com dove trovate tutte le informazioni relativamente a queste altre soluzioni Netup in ambito cloud e trovate anche tutta la parte di documentazionerelativa a i database supportati, le caratteristiche e via dicendo. Ecco, sono tornato, ho avuto evidentemente dei problemi di linea, comunque avevo concluso, quindi spero che eh per la squad sono altre domande direi.Grazie Maurizio per la demo e per la presentazione chiarissima. Grazie a tutti per la partecipazione. Vi ricordo che poi vi manderemo il link per la registrazione e ci vediamo fra due settimane con il prossimo techlab. Grazie ancora e buona giornata a tutti. Buona giornata.
NetApp Cloud Data Sense è basato su potenti algoritmi di AI che migliorano il modo in cui interagisci con i tuoi dati; ti aiuteranno a trovare qualsiasi dato che tu stia cercando, ovunque e in qualsiasi momento.