A computação de alto desempenho (HPC) é a capacidade de processar dados e executar cálculos complexos em altas velocidades. Para colocá-lo em perspetiva, um laptop ou desktop com um processador de 3 GHz pode executar cerca de 3 bilhões de cálculos por segundo. Embora isso seja muito mais rápido do que qualquer ser humano pode alcançar, ele fica claro em comparação com as soluções de HPC que podem executar quadriliões de cálculos por segundo.
Um dos tipos mais conhecidos de soluções HPC é o supercomputador. Um supercomputador contém milhares de nós de computação que trabalham juntos para concluir uma ou mais tarefas. Isso é chamado processamento paralelo. É semelhante a ter milhares de PCs conetados em rede, combinando poder de computação para concluir tarefas mais rapidamente.
É através de dados que são feitas descobertas científicas inovadoras, inovações que mudam o jogo são alimentadas e a qualidade de vida é melhorada para bilhões de pessoas em todo o mundo. HPC é a base para avanços científicos, industriais e sociais.
À medida que tecnologias como a Internet das coisas (IoT) , a inteligência artificial (AI) e as imagens 3D evoluem, o tamanho e a quantidade de dados com os quais as organizações precisam trabalhar estão crescendo exponencialmente. Para muitos fins, como transmitir um evento Esportivo ao vivo, acompanhar uma tempestade em desenvolvimento, testar novos produtos ou analisar tendências de estoque, a capacidade de processar dados em tempo real é crucial.
Para se manterem à frente da concorrência, as organizações precisam de uma INFRAESTRUTURA DE TI extremamente rápida e confiável para processar, armazenar e analisar grandes quantidades de dados.
As soluções HPC têm três componentes principais:
Para criar uma arquitetura de computação de alto desempenho, os servidores de computação são conetados em rede em um cluster. Programas de software e algoritmos são executados simultaneamente nos servidores do cluster. O cluster é ligado em rede ao armazenamento de dados para capturar a saída. Juntos, esses componentes operam perfeitamente para concluir um conjunto diversificado de tarefas.
Para funcionar com o máximo desempenho, cada componente deve acompanhar o ritmo dos outros. Por exemplo, o componente de storage deve ser capaz de alimentar e ingerir dados de e para os servidores de computação tão rapidamente quanto eles são processados. Da mesma forma, os componentes de rede precisam ser capazes de suportar o transporte de dados em alta velocidade entre servidores de computação e o storage de dados. Se um componente não puder acompanhar o resto, o desempenho de toda a infraestrutura de HPC será prejudicado.
Um cluster de HPC consiste em centenas ou milhares de servidores de computação que estão conetados em rede juntos. Cada servidor é chamado de nó. Os nós em cada cluster trabalham em paralelo uns com os outros, aumentando a velocidade de processamento para fornecer computação de alto desempenho.
Implantadas no local, na borda ou na nuvem, as soluções de HPC são usadas para diversos fins em vários setores. Os exemplos incluem:
A solução NetApp HPC apresenta uma linha completa de sistemas de storage e-Series de alto desempenho e alta densidade. Uma arquitetura modular com um custo-benefício líder do setor oferece uma verdadeira solução de pagamento conforme o uso para dar suporte aos requisitos de storage para conjuntos de dados de vários petabytes. O sistema é integrado aos principais sistemas de arquivos HPC, incluindo Lustre, IBM Spectrum Scale, BeeGFS e outros para lidar com os requisitos de performance e confiabilidade das maiores infraestruturas de computação do mundo.
Os sistemas e-Series oferecem a performance, a confiabilidade, a escalabilidade, a simplicidade e o TCO mais baixo necessários para enfrentar os desafios do suporte a workloads extremos:
Meet the Critical Needs of your High Performance Computing Environment with Azure NetApp Files.