Menu

Cos’è l’High Performance Computing o HPC?

Argomenti
Storage per HPC

Condivi questa pagina

L’High Performance Computing (HPC) è la capacità di elaborare i dati ed eseguire calcoli complessi ad alta velocità. Per fare un paragone, un laptop o un desktop con un processore da 3 GHz può eseguire circa 3 miliardi d calcoli al secondo. Anche se questa velocità di calcolo è notevolmente superiore a quella che può raggiungere un essere umano, non è niente rispetto a quella delle soluzioni HPC che possono eseguire milioni di miliardi di calcoli al secondo. 

Uno dei tipi più conosciuti di soluzioni HPC è il supercomputer. Un supercomputer contiene migliaia di nodi di calcolo che lavorano insieme per completare una o più attività. Questo processo è chiamato elaborazione parallela. È come avere migliaia di PC collegati in rete, che uniscono la potenza di calcolo per completare le attività più velocemente.

Perché la tecnologia HPC è importante?

È attraverso i dati che si fanno scoperte scientifiche all’avanguardia, si alimentano innovazioni rivoluzionarie e si migliora la qualità della vita per miliardi di persone in tutto il mondo. L’HPC costituisce la base dei progressi scientifici, industriali e sociali.

Con l’evolversi di tecnologie come l’Internet delle cose (IoT), l’intelligenza artificiale (AI) e l’imaging 3D, le dimensioni e la quantità dei dati con cui le organizzazioni devono lavorare stanno aumentando in modo esponenziale. La capacità di elaborare i dati in tempo reale è fondamentale per molte finalità, come lo streaming di un evento sportivo dal vivo, il monitoraggio dello sviluppo di una tempesta, il collaudo di nuovi prodotti o l’analisi delle tendenze azionarie.

Per mantenere un vantaggio competitivo, le organizzazioni hanno bisogno di un’infrastruttura IT estremamente veloce e affidabile per elaborare, archiviare e analizzare enormi quantità di dati.

Come funziona l’HPC?

Le soluzioni HPC si basano su tre componenti principali:

  • Calcolo
  • Rete
  • Storage

Per creare un’architettura di calcolo dalle performance elevate, i server di calcolo sono collegati in rete in un cluster. I programmi software e gli algoritmi vengono eseguiti contemporaneamente sui server del cluster. Il cluster viene collegato in rete al sistema di storage per acquisire il risultato. Insieme, questi componenti funzionano perfettamente per completare una serie di diverse attività.

Per funzionare al massimo delle performance, ogni componente deve essere sincronizzato agli altri. Ad esempio, il componente di storage deve essere in grado di fornire e gestire dati da e verso i server di calcolo con la stessa rapidità con cui vengono elaborati. Analogamente, i componenti di rete devono essere in grado di supportare la trasmissione dei dati ad alta velocità tra i server di calcolo e il sistema storage. Se un componente non riesce a stare al passo con gli altri, ne risentono le performance dell’intera infrastruttura HPC.

Cos'è un cluster HPC?

Un cluster HPC è costituito da centinaia o migliaia di server di calcolo collegati in rete. Ogni server è chiamato nodo. I nodi di ciascun cluster lavorano in parallelo, aumentando la velocità di elaborazione per fornire un ambiente di high-performance computing.

Casi di utilizzo di HPC

Implementate on-premise, a livello di edge o nel cloud, le soluzioni HPC vengono utilizzate per una vasta gamma di scopi in diversi settori. Ecco alcuni esempi:

  • Laboratori di ricerca. L’HPC viene utilizzato per supportare gli scienziati nelle attività di ricerca di fonti di energia rinnovabile, di analisi dell’evoluzione dell’universo, di previsione e monitoraggio delle tempeste e di sviluppo di nuovi materiali.
  • Media and Entertainment. L’HPC viene utilizzato per il montaggio di film, per creare rendering di strabilianti effetti speciali e trasmettere in streaming eventi dal vivo in tutto il mondo.
  • Settore gas-petrolifero. L’HPC viene utilizzato per identificare in modo più preciso i punti in cui perforare per trovare nuovi pozzi e per incrementare la produzione dai pozzi esistenti.
  • Intelligenza artificiale e Machine Learning. L’HPC viene utilizzato per rilevare frodi relative alle carte di credito, fornire supporto tecnico autoguidato, creare veicoli a guida autonoma e migliorare le tecniche di screening dei tumori.
  • Servizi finanziari. L’HPC viene utilizzato per monitorare le tendenze azionarie in tempo reale e automatizzare il trading.
  • L’HPC consente di progettare nuovi prodotti, simulare scenari di collaudo e verificare la disponibilità delle parti in magazzino per evitare interruzioni delle linee di produzione.
  • L’HPC viene utilizzato per sviluppare cure per malattie come il diabete e il cancro, nonché per consentire diagnosi più rapide e precise.

NetApp e HPC

La soluzione NetApp HPC integra una serie completa di sistemi storage E-Series a performance elevate e ad alta densità. Un’architettura modulare abbinata ad un rapporto prezzo-performance leader del settore offre una vera soluzione pay-as-you-grow in grado di soddisfare i requisiti di storage per set di dati di vari petabyte. Il sistema è integrato con i principali file system HPC, tra cui Lustre, IBM Spectrum Scale, BeeGFS e altri, per soddisfare i requisiti in termini di performance e affidabilità delle più grandi infrastrutture di calcolo del mondo.

I sistemi E-Series forniscono le performance, l’affidabilità, la scalabilità, la semplicità e il TCO ridotto necessari per affrontare le sfide legate al supporto di carichi di lavoro molto impegnativi:

  • Performance. Fornisce fino a 1 milione di IOPS random read e 13 GB/sec di larghezza di banda sostenuta in scrittura per building block scalabile. Ottimizzata per supporti flash e rotanti, la soluzione HPC di NetApp include una tecnologia integrata che monitora i carichi di lavoro e regola automaticamente le configurazioni per massimizzare le performance.
  • Affidabilità. Il design con tolleranza degli errori garantisce una disponibilità superiore al 99,9999%, comprovata da oltre 1 milione di sistemi implementati. Le funzionalità di data assurance integrate garantiscono la precisione dei dati senza interruzioni, danneggiamento o perdita di bit.
  • Implementazione e gestione semplificate. Il design modulare, la replica in tempo reale (”taglia e incolla”) dei blocchi di storage, il monitoraggio proattivo e gli script di automazione contribuiscono a una gestione semplice, rapida e flessibile.
  • Scalabilità. Un approccio building block granulare alla crescita che supporta una scalabilità perfetta da terabyte a petabyte aggiungendo capacità con qualsiasi incremento, uno o più dischi alla volta.
  • TCO inferiore. I building block ottimizzati in termini di rapporto prezzo/performance e la migliore densità del settore offrono costi di alimentazione, raffreddamento e assistenza ridotti nonché percentuali di errore 4 volte inferiori rispetto ai dispositivi HDD e SSD commodity.

Soluzioni di settore correlate

HPC su Azure

Soddisfa le esigenze critiche del tuo ambiente di elaborazione ad alte performance con Azure NetApp Files.

Drift chat loading