Le calcul haute performance (HPC) permet de traiter les données et d'effectuer des calculs complexes à des vitesses élevées. Pour remettre les choses en perspective, un ordinateur portable ou un poste de travail avec un processeur de 3 GHz peut effectuer environ 3 milliards de calculs par seconde. Bien que ce chiffre soit déjà bien au-delà des capacités humaines, il reste dérisoire comparé aux capacités des solutions HPC, capables d'effectuer des quadrillions de calculs par seconde.
L'une des solutions HPC les plus connues est le supercalculateur. Un supercalculateur contient des milliers de nœuds de calcul qui fonctionnent ensemble pour réaliser une ou plusieurs tâches. On appelle cela le traitement parallèle. C'est comme si des milliers de PC étaient mis en réseau afin d'unir leurs puissances de calcul pour réaliser des tâches plus rapidement.
Les données permettent de réaliser des découvertes scientifiques majeures, de stimuler l'innovation et d'améliorer la qualité de vie de milliards d'individus sur la planète. Le calcul haute performance constitue le socle de ces avancées scientifiques, industrielles et sociétales.
Comme les technologies telles que l'Internet des objets (IOT), l'intelligence artificielle (IA) et l'imagerie 3D évoluent, la taille et la quantité de données avec lesquelles les entreprises doivent travailler augmentent de façon exponentielle. À de nombreuses fins, telles que le streaming d'un événement sportif en direct, le suivi de l'évolution d'une tempête, les tests de nouveaux produits ou l'analyse des tendances boursières, la capacité de traiter les données en temps réel est cruciale.
Pour se démarquer de la concurrence, les entreprises ont besoin d'une infrastructure IT hyper rapide et fiable pour traiter, stocker et analyser des quantités massives de données.
Les solutions HPC comportent trois composants principaux :
Pour bâtir une architecture de calcul haute performance, des serveurs de calcul sont mis en réseau dans un cluster. Des programmes logiciels et des algorithmes sont exécutés simultanément sur les serveurs du cluster. Le cluster est mis en réseau avec le stockage de données pour capturer la sortie. Ces composants fonctionnent ensemble de façon fluide pour effectuer diverses tâches.
Pour obtenir des performances maximales, chaque composant doit suivre le rythme des autres. Le composant de stockage, par exemple, doit pouvoir alimenter et ingérer des données vers et depuis les serveurs de calcul aussi rapidement qu'elles sont traitées. De même, les composants réseau doivent être en mesure de prendre en charge le transport rapide des données entre les serveurs de calcul et le stockage. Si l'un des composants est à la traîne, les performances de toute l'infrastructure HPC en pâtissent.
Un cluster HPC se compose de centaines ou de milliers de serveurs de calcul mis en réseau. Chaque serveur représente un nœud. Les nœuds de chaque cluster fonctionnent en parallèle, ce qui accélère la vitesse de traitement et fournit un calcul haute performance.
Déployées sur site, à la périphérie ou dans le cloud, les solutions HPC sont utilisées à diverses fins dans plusieurs secteurs. Voici quelques exemples :
La solution HPC de NetApp comprend une gamme complète de systèmes de stockage E-Series haute performance et haute densité. Une architecture modulaire présentant le meilleur rapport prix/performances du marché offre une véritable solution de paiement à l'utilisation pour prendre en charge les besoins de stockage de datasets de plusieurs pétaoctets. Le système est intégré avec les systèmes de fichiers HPC leaders, notamment Lustre, IBM Spectrum Scale, BeeGFS, etc., afin de répondre aux exigences de performance et de fiabilité des infrastructures de calcul les plus importantes au monde.
Les systèmes E-Series apportent la performance, la fiabilité, l'évolutivité, la simplicité et le faible TCO nécessaires pour prendre en charge des workloads extrêmes :
Répondez aux besoins stratégiques de votre environnement informatique haute performance avec Azure NetApp Files.