A computação de alto desempenho (HPC) é a capacidade de processar dados e executar cálculos complexos em altas velocidades. Para colocá-lo em perspetiva, um laptop ou desktop com um processador de 3GHz pode executar cerca de 3 bilhões de cálculos por segundo. Embora isso seja muito mais rápido do que qualquer ser humano pode alcançar, ele fica claro em comparação com as soluções de HPC que podem executar quadrilhões de cálculos por segundo.
Um dos tipos mais conhecidos de soluções HPC é o supercomputador. Um supercomputador contém milhares de nós de computação que trabalham juntos para concluir uma ou mais tarefas. Isso é chamado processamento paralelo. É semelhante a ter milhares de PCs conectados em rede, combinando poder de computação para concluir tarefas mais rapidamente.
É através de dados que são feitas descobertas científicas inovadoras, que mudama qualidade de vida de bilhões de pessoas em todo o mundo. À medida que tecnologias como a Internet das coisas (IoT), a inteligência artificial (IA) e as imagens 3D evoluem, o tamanho e a quantidade de dados com os quais as organizações precisam trabalhar cresce exponencialmente. Para muitos fins, como transmitir um evento esportivo ao vivo, acompanhar uma tempestade em desenvolvimento, testar novos produtos ou analisar tendências de estoque, a capacidade de processar dados em tempo real é crucial.
Para se manterem à frente da concorrência, as organizações precisam de uma INFRAESTRUTURA DE TI extremamente rápida e confiável para processar, armazenar e analisar grandes quantidades de dados.
As soluções HPC têm três componentes principais:
Para criar uma arquitetura de computação de alto desempenho, os servidores de computação são conectados por rede em um cluster que por sua vez possuem servidores que executam programas de software e algoritmos. O cluster é ligado em rede ao armazenamento de dados para capturar a saída. Juntos, esses componentes operam perfeitamente para concluir um conjunto diversificado de tarefas.
Para funcionar com o máximo desempenho, cada componente deve acompanhar o ritmo um do outro. Por exemplo, o componente de armazenagem deve ser capaz de alimentar e ingerir dados aos servidores de computação tão rapidamente quanto eles são processados. Da mesma forma, os componentes de rede precisam ser capazes de suportar o transporte de dados em alta velocidade entre servidores de computação e o armazenamento de dados. Se um componente não puder acompanhar o resto, o desempenho de toda a infraestrutura de HPC será prejudicado.
Um cluster de HPC consiste em centenas ou milhares de servidores de computação que estão conectados em rede juntos. Cada servidor é chamado de nó. Os nós em cada cluster trabalham em paralelo uns com os outros, aumentando a velocidade de processamento para fornecer computação de alto desempenho.
Implantadas no local, na borda ou na nuvem, as soluções de HPC são usadas para diversos fins em vários setores. Os exemplos incluem:
A solução NetApp HPC apresenta uma linha completa de sistemas de storage e-series de alto desempenho e alta densidade. Uma arquitetura modular com um custo-benefício líder do setor oferece uma verdadeira solução de pagamento conforme o uso para dar suporte aos requisitos de armazenagem para conjuntos de dados de vários petabytes. O sistema é integrado aos principais sistemas de arquivos HPC, incluindo Lustre, IBM Spectrum Scale, BeeGFS e outros para lidar com os requisitos de performance e confiabilidade das maiores infraestruturas de computação do mundo.
Os sistemas e-Series oferecem a performance, a confiabilidade, a escalabilidade, a simplicidade e o TCO mais baixo necessários para enfrentar os desafios do suporte a workloads extremos:
Reduzir o TCO. Componentes básicos otimizados para preço/desempenho e a melhor densidade do setor proporcionam baixos custos de energia, refrigeração e suporte, além de taxas de falha 4 vezes menores do que os dispositivos HDD e SSD comuns.
Atenda às necessidades críticas do seu ambiente de Computação de Alto Desempenho com o Azure NetApp Files.