Menu

O que é computação de alto desempenho?

Tópicos
Armazenamento de dados para HPC

Compartilhe esta página

A computação de alto desempenho (HPC) é a capacidade de processar dados e executar cálculos complexos em altas velocidades. Para colocá-lo em perspetiva, um laptop ou desktop com um processador de 3GHz pode executar cerca de 3 bilhões de cálculos por segundo. Embora isso seja muito mais rápido do que qualquer ser humano pode alcançar, ele fica claro em comparação com as soluções de HPC que podem executar quadrilhões de cálculos por segundo. 

Um dos tipos mais conhecidos de soluções HPC é o supercomputador. Um supercomputador contém milhares de nós de computação que trabalham juntos para concluir uma ou mais tarefas. Isso é chamado processamento paralelo. É semelhante a ter milhares de PCs conectados em rede, combinando poder de computação para concluir tarefas mais rapidamente.

Por que a HPC é importante?

É através de dados que são feitas descobertas científicas inovadoras, que mudama qualidade de vida de bilhões de pessoas em todo o mundo. À medida que tecnologias como a Internet das coisas (IoT), a inteligência artificial (IA) e as imagens 3D evoluem, o tamanho e a quantidade de dados com os quais as organizações precisam trabalhar cresce exponencialmente. Para muitos fins, como transmitir um evento esportivo ao vivo, acompanhar uma tempestade em desenvolvimento, testar novos produtos ou analisar tendências de estoque, a capacidade de processar dados em tempo real é crucial.

Para se manterem à frente da concorrência, as organizações precisam de uma INFRAESTRUTURA DE TI extremamente rápida e confiável para processar, armazenar e analisar grandes quantidades de dados.

Como funciona a HPC?

As soluções HPC têm três componentes principais:

  • Computação
  • Rede
  • Armazenamento

Para criar uma arquitetura de computação de alto desempenho, os servidores de computação são conectados por rede em um cluster que por sua vez possuem servidores que executam programas de software e algoritmos. O cluster é ligado em rede ao armazenamento de dados para capturar a saída. Juntos, esses componentes operam perfeitamente para concluir um conjunto diversificado de tarefas.

Para funcionar com o máximo desempenho, cada componente deve acompanhar o ritmo um do outro. Por exemplo, o componente de armazenagem deve ser capaz de alimentar e ingerir dados aos servidores de computação tão rapidamente quanto eles são processados. Da mesma forma, os componentes de rede precisam ser capazes de suportar o transporte de dados em alta velocidade entre servidores de computação e o armazenamento de dados. Se um componente não puder acompanhar o resto, o desempenho de toda a infraestrutura de HPC será prejudicado.

O que é um cluster HPC?

Um cluster de HPC consiste em centenas ou milhares de servidores de computação que estão conectados em rede juntos. Cada servidor é chamado de nó. Os nós em cada cluster trabalham em paralelo uns com os outros, aumentando a velocidade de processamento para fornecer computação de alto desempenho.

Casos de uso de HPC

Implantadas no local, na borda ou na nuvem, as soluções de HPC são usadas para diversos fins em vários setores. Os exemplos incluem:

  • Laboratórios de pesquisa. A HPC é usada para ajudar os cientistas a encontrar fontes de energia renovável, entender a evolução do nosso universo, prever e rastrear tempestades e criar novos materiais.
  • Mídia e entretenimento. HPC é usado para editar filmes, renderizar efeitos especiais alucinantes e transmitir eventos ao vivo em todo o mundo.
  • Petróleo e gás. A HPC é usada para identificar com mais precisão onde perfurar novos poços e ajudar a impulsionar a produção a partir de poços existentes.
  • Inteligência artificial e aprendizado de máquina. A HPC é usada para detectar fraudes de cartão de crédito, fornecer suporte técnico autoguiado, ensinar veículos autônomos e melhorar técnicas de triagem de Câncer.
  • Serviços financeiros. HPC é usado para rastrear tendências de ações em tempo real e automatizar a negociação.
  • O HPC é usado para projetar novos produtos, simular cenários de teste e garantir que as peças sejam mantidas em estoque para que as linhas de produção não sejam mantidas.
  • A HPC é usada para ajudar a desenvolver curas para doenças como diabetes e Câncer e para permitir um diagnóstico mais rápido e preciso do paciente.

NetApp e HPC

A solução NetApp HPC apresenta uma linha completa de sistemas de storage e-series de alto desempenho e alta densidade. Uma arquitetura modular com um custo-benefício líder do setor oferece uma verdadeira solução de pagamento conforme o uso para dar suporte aos requisitos de armazenagem para conjuntos de dados de vários petabytes. O sistema é integrado aos principais sistemas de arquivos HPC, incluindo Lustre, IBM Spectrum Scale, BeeGFS e outros para lidar com os requisitos de performance e confiabilidade das maiores infraestruturas de computação do mundo.

Os sistemas e-Series oferecem a performance, a confiabilidade, a escalabilidade, a simplicidade e o TCO mais baixo necessários para enfrentar os desafios do suporte a workloads extremos:

  • Desempenho. Fornece até 1 milhão de IOPS de leitura aleatória e largura de banda de gravação contínua (burst máximo) de 13GB GB/s por componente básico dimensionável. Otimizada para flash e mídia giratória, a solução HPC da NetApp inclui tecnologia incorporada que monitora workloads e ajusta automaticamente as configurações para maximizar a performance.
  • Confiabilidade. O design tolerante a falhas oferece disponibilidade superior a 99,99,9999%, comprovado por mais de 1 milhões de sistemas implantados. Os recursos integrados de garantia de dados ajudam a garantir que os dados sejam precisos sem quedas, corrupção ou bits perdidos.
  • Fácil de implantar e gerenciar. O design modular e a replicação dinâmica de blocos de storage, monitoramento proativo e scripts de automação contribuem para o gerenciamento fácil, rápido e flexível.
  • Escalabilidade. Uma abordagem granular de componentes básicos para o crescimento que permite a escalabilidade otimizada de terabytes para petabytes, adicionando capacidade em qualquer incremento, uma ou várias unidades de cada vez.

Reduzir o TCO. Componentes básicos otimizados para preço/desempenho e a melhor densidade do setor proporcionam baixos custos de energia, refrigeração e suporte, além de taxas de falha 4 vezes menores do que os dispositivos HDD e SSD comuns.

Related industry solutions

HPC no Azure

Atenda às necessidades críticas do seu ambiente de Computação de Alto Desempenho com o Azure NetApp Files.

Drift chat loading