Menu

Qu'est-ce que le calcul haute performance ou HPC ?

Rubriques
Stockage des données pour HPC

Partager cette page

Le calcul haute performance (HPC) permet de traiter les données et d'effectuer des calculs complexes à des vitesses élevées. Pour remettre les choses en perspective, un ordinateur portable ou un poste de travail avec un processeur de 3 GHz peut effectuer environ 3 milliards de calculs par seconde. Bien que ce chiffre soit déjà bien au-delà des capacités humaines, il reste dérisoire comparé aux capacités des solutions HPC, capables d'effectuer des quadrillions de calculs par seconde. 

L'une des solutions HPC les plus connues est le supercalculateur. Un supercalculateur contient des milliers de nœuds de calcul qui fonctionnent ensemble pour réaliser une ou plusieurs tâches. On appelle cela le traitement parallèle. C'est comme si des milliers de PC étaient mis en réseau afin d'unir leurs puissances de calcul pour réaliser des tâches plus rapidement.

Pourquoi le HPC est-il important ?

Les données permettent de réaliser des découvertes scientifiques majeures, de stimuler l'innovation et d'améliorer la qualité de vie de milliards d'individus sur la planète. Le calcul haute performance constitue le socle de ces avancées scientifiques, industrielles et sociétales.

Comme les technologies telles que l'Internet des objets (IOT), l'intelligence artificielle (IA) et l'imagerie 3D évoluent, la taille et la quantité de données avec lesquelles les entreprises doivent travailler augmentent de façon exponentielle. À de nombreuses fins, telles que le streaming d'un événement sportif en direct, le suivi de l'évolution d'une tempête, les tests de nouveaux produits ou l'analyse des tendances boursières, la capacité de traiter les données en temps réel est cruciale.

Pour se démarquer de la concurrence, les entreprises ont besoin d'une infrastructure IT hyper rapide et fiable pour traiter, stocker et analyser des quantités massives de données.

Fonctionnement du calcul haute performance

Les solutions HPC comportent trois composants principaux :

  • Calcul
  • Réseau
  • Stockage

Pour bâtir une architecture de calcul haute performance, des serveurs de calcul sont mis en réseau dans un cluster. Des programmes logiciels et des algorithmes sont exécutés simultanément sur les serveurs du cluster. Le cluster est mis en réseau avec le stockage de données pour capturer la sortie. Ces composants fonctionnent ensemble de façon fluide pour effectuer diverses tâches.

Pour obtenir des performances maximales, chaque composant doit suivre le rythme des autres. Le composant de stockage, par exemple, doit pouvoir alimenter et ingérer des données vers et depuis les serveurs de calcul aussi rapidement qu'elles sont traitées. De même, les composants réseau doivent être en mesure de prendre en charge le transport rapide des données entre les serveurs de calcul et le stockage. Si l'un des composants est à la traîne, les performances de toute l'infrastructure HPC en pâtissent.

Qu'est-ce qu'un cluster HPC ?

Un cluster HPC se compose de centaines ou de milliers de serveurs de calcul mis en réseau. Chaque serveur représente un nœud. Les nœuds de chaque cluster fonctionnent en parallèle, ce qui accélère la vitesse de traitement et fournit un calcul haute performance.

Utilisations du calcul haute performance

Déployées sur site, à la périphérie ou dans le cloud, les solutions HPC sont utilisées à diverses fins dans plusieurs secteurs. Voici quelques exemples :

NetApp et le calcul haute performance

La solution HPC de NetApp comprend une gamme complète de systèmes de stockage E-Series haute performance et haute densité. Une architecture modulaire présentant le meilleur rapport prix/performances du marché offre une véritable solution de paiement à l'utilisation pour prendre en charge les besoins de stockage de datasets de plusieurs pétaoctets. Le système est intégré avec les systèmes de fichiers HPC leaders, notamment Lustre, IBM Spectrum Scale, BeeGFS, etc., afin de répondre aux exigences de performance et de fiabilité des infrastructures de calcul les plus importantes au monde.

Les systèmes E-Series apportent la performance, la fiabilité, l'évolutivité, la simplicité et le faible TCO nécessaires pour prendre en charge des workloads extrêmes :

  • Performances. Jusqu'à 1 million d'IOPS en lecture aléatoire avec un débit continu en écriture de 13 Gbit/s (débit maximal en rafale) par élément de base évolutif. Optimisée pour le flash et les disques rotatifs, la solution NetApp HPC comprend une technologie intégrée qui surveille les workloads et ajuste automatiquement les configurations afin de maximiser la performance.
  • Fiabilité. Notre système, dont le succès ne se dément pas avec plus d'un million de déploiements, est tolérant aux pannes et offre une disponibilité supérieure à 99,9999 %. La fonctionnalité Data Assurance intégrée permet de s'assurer que les données sont exactes, et qu'il n'y a pas de perte, de corruption ni de bits manquants.
  • Facilité de déploiement et de gestion. Design modulaire, réplication à la volée (par couper-coller) des blocs de stockage, contrôle proactif et scripts d'automatisation : autant d'éléments qui s'additionnent pour rendre la gestion plus simple, facile et flexible.
  • Évolutivité. Une approche granulaire de la croissance, avec des éléments de base, permet d'évoluer de façon fluide de plusieurs téraoctets à plusieurs pétaoctets en ajoutant de la capacité de façon incrémentielle (un ou plusieurs disques à la fois).
  • Faible TCO. Des éléments de base avec un rapport prix/performance optimisé et la meilleure densité par unité en rack de stockage du secteur offrent de faibles coûts d'alimentation, de refroidissement et de support, ainsi que des taux de défaillance 4 fois moins élevés qu'avec les HDD et SSD génériques.

Solutions sectorielles complémentaires

HPC sur Azure

Répondez aux besoins stratégiques de votre environnement informatique haute performance avec Azure NetApp Files.

Drift chat loading