L’High Performance Computing (HPC) è la capacità di elaborare i dati ed eseguire calcoli complessi ad alta velocità. Per fare un paragone, un laptop o un desktop con un processore da 3 GHz può eseguire circa 3 miliardi d calcoli al secondo. Anche se questa velocità di calcolo è notevolmente superiore a quella che può raggiungere un essere umano, non è niente rispetto a quella delle soluzioni HPC che possono eseguire milioni di miliardi di calcoli al secondo.
Uno dei tipi più conosciuti di soluzioni HPC è il supercomputer. Un supercomputer contiene migliaia di nodi di calcolo che lavorano insieme per completare una o più attività. Questo processo è chiamato elaborazione parallela. È come avere migliaia di PC collegati in rete, che uniscono la potenza di calcolo per completare le attività più velocemente.
È attraverso i dati che si fanno scoperte scientifiche all’avanguardia, si alimentano innovazioni rivoluzionarie e si migliora la qualità della vita per miliardi di persone in tutto il mondo. L’HPC costituisce la base dei progressi scientifici, industriali e sociali.
Con l’evolversi di tecnologie come l’Internet delle cose (IoT), l’intelligenza artificiale (AI) e l’imaging 3D, le dimensioni e la quantità dei dati con cui le organizzazioni devono lavorare stanno aumentando in modo esponenziale. La capacità di elaborare i dati in tempo reale è fondamentale per molte finalità, come lo streaming di un evento sportivo dal vivo, il monitoraggio dello sviluppo di una tempesta, il collaudo di nuovi prodotti o l’analisi delle tendenze azionarie.
Per mantenere un vantaggio competitivo, le organizzazioni hanno bisogno di un’infrastruttura IT estremamente veloce e affidabile per elaborare, archiviare e analizzare enormi quantità di dati.
Le soluzioni HPC si basano su tre componenti principali:
Per creare un’architettura di calcolo dalle performance elevate, i server di calcolo sono collegati in rete in un cluster. I programmi software e gli algoritmi vengono eseguiti contemporaneamente sui server del cluster. Il cluster viene collegato in rete al sistema di storage per acquisire il risultato. Insieme, questi componenti funzionano perfettamente per completare una serie di diverse attività.
Per funzionare al massimo delle performance, ogni componente deve essere sincronizzato agli altri. Ad esempio, il componente di storage deve essere in grado di fornire e gestire dati da e verso i server di calcolo con la stessa rapidità con cui vengono elaborati. Analogamente, i componenti di rete devono essere in grado di supportare la trasmissione dei dati ad alta velocità tra i server di calcolo e il sistema storage. Se un componente non riesce a stare al passo con gli altri, ne risentono le performance dell’intera infrastruttura HPC.
Un cluster HPC è costituito da centinaia o migliaia di server di calcolo collegati in rete. Ogni server è chiamato nodo. I nodi di ciascun cluster lavorano in parallelo, aumentando la velocità di elaborazione per fornire un ambiente di high-performance computing.
Implementate on-premise, a livello di edge o nel cloud, le soluzioni HPC vengono utilizzate per una vasta gamma di scopi in diversi settori. Ecco alcuni esempi:
La soluzione NetApp HPC integra una serie completa di sistemi storage E-Series a performance elevate e ad alta densità. Un’architettura modulare abbinata ad un rapporto prezzo-performance leader del settore offre una vera soluzione pay-as-you-grow in grado di soddisfare i requisiti di storage per set di dati di vari petabyte. Il sistema è integrato con i principali file system HPC, tra cui Lustre, IBM Spectrum Scale, BeeGFS e altri, per soddisfare i requisiti in termini di performance e affidabilità delle più grandi infrastrutture di calcolo del mondo.
I sistemi E-Series forniscono le performance, l’affidabilità, la scalabilità, la semplicità e il TCO ridotto necessari per affrontare le sfide legate al supporto di carichi di lavoro molto impegnativi:
Soddisfa le esigenze critiche del tuo ambiente di elaborazione ad alte performance con Azure NetApp Files.