Menú

¿Qué es la computación de alto rendimiento o HPC?

Temas
Almacenamiento de datos para HPC

Compartir esta página

La computación de alto rendimiento (HPC) es la capacidad de procesar datos y realizar cálculos complejos a velocidades muy altas. Para ponerlo en perspectiva, un equipo portátil o de sobremesa con un procesador de 3 GHz puede realizar unos 3.000 millones de cálculos por segundo. Aunque esto es mucho más rápido de lo que puede lograr cualquier humano, palidece en comparación con las soluciones HPC que pueden realizar cuadrillones de cálculos por segundo. 

Uno de los tipos de soluciones HPC más conocidos es el superordenador. Un superordenador contiene miles de nodos de computación que trabajan juntos para completar una o varias tareas. Esto se denomina procesamiento paralelo. Es similar a tener miles de equipos conectados en red, combinando la potencia de computación para completar tareas más rápidamente.

¿Por qué es importante la computación de alto rendimiento?

Es a través de los datos que se hacen descubrimientos científicos reveladores, se potencian las innovaciones que cambian las reglas del juego y se mejora la calidad de vida de miles de millones de personas en todo el mundo. HPC es el pilar de los avances científicos, industriales y sociales.

A medida que evolucionan tecnologías como el Internet de las cosas (IoT), la inteligencia artificial (IA) y las imágenes 3D, el tamaño y la cantidad de datos con los que las organizaciones deben trabajar crece exponencialmente. Para muchos fines, como la retransmisión de un evento deportivo en directo, el seguimiento de la evolución de una tormenta, la prueba de nuevos productos o el análisis de tendencias bursátiles, la capacidad para procesar datos en tiempo real es crucial.

Para seguir un paso por delante de la competencia, las organizaciones necesitan una infraestructura tecnológica muy fiable y rápida para procesar, almacenar y analizar cantidades masivas de datos.

¿Cómo funciona HPC?

Las soluciones HPC tienen tres componentes principales:

  • Computación
  • Red
  • Almacenamiento

Para crear una arquitectura de computación de alto rendimiento, los servidores de computación se conectan en un clúster. Los programas de software y los algoritmos se ejecutan simultáneamente en los servidores del clúster. El clúster está conectado en red al almacenamiento de datos para capturar la salida. Juntos, estos componentes funcionan de forma fluida para completar un conjunto diverso de tareas.

Para funcionar al máximo rendimiento, cada componente debe seguir el ritmo de los demás. Por ejemplo, el componente de almacenamiento debe poder proporcionar e ingerir datos hacia y desde los servidores de computación a la misma velocidad con que se procesan. Asimismo, los componentes de red deben ser capaces de admitir el transporte de datos de alta velocidad entre los servidores de computación y el almacenamiento de datos. Si un componente no puede mantener el ritmo del resto, el rendimiento de toda la infraestructura de HPC se resiente.

¿Qué es un clúster HPC?

Un clúster HPC consta de cientos o miles de servidores de computación conectados en red. Cada servidor se denomina nodo. Los nodos de cada clúster trabajan unos con otros en paralelo, lo que aumenta la velocidad de procesamiento para proporcionar una computación de alto rendimiento.

Casos de uso de HPC

Las soluciones HPC se implementan on-premises, en el edge o en la nube, y se utilizan para diversos fines en varios sectores. Estos son algunos ejemplos:

  • Laboratorios de investigación. HPC se utiliza para ayudar a la comunidad científica a encontrar fuentes de energía renovable, comprender la evolución de nuestro universo, predecir y rastrear tormentas y crear nuevos materiales.
  • Medios y entretenimiento. HPC se utiliza para editar largometrajes, producir efectos especiales alucinantes y transmitir eventos en directo en todo el mundo.
  • Petróleo y gas. HPC se utiliza para identificar con mayor precisión dónde se perforan nuevos pozos y para ayudar a impulsar la producción de pozos existentes.
  • Inteligencia artificial y aprendizaje automático. HPC se utiliza para detectar fraudes con tarjetas de crédito, proporcionar soporte técnico autoguiado, entrenar vehículos autónomos y mejorar las técnicas de detección del cáncer.
  • Servicios financieros. HPC se utiliza para realizar un seguimiento de las tendencias de las acciones en tiempo real y automatizar las operaciones bursátiles.
  • HPC se utiliza para diseñar nuevos productos, simular escenarios de prueba y asegurarse de que hay stock de piezas para que no se frene el funcionamiento de las líneas de producción.
  • HPC se utiliza en el desarrollo de curas para enfermedades como la diabetes y el cáncer y para hacer posible un diagnóstico de pacientes más rápido y preciso.

NetApp y HPC

La solución HPC de NetApp ® presenta una gama completa de sistemas de almacenamiento E-Series de alto rendimiento y alta densidad. Una arquitectura modular con un precio/rendimiento líder en el sector que ofrece una solución real de paga-mientras-creces para admitir los requisitos de almacenamiento de conjuntos de datos de varios petabytes. El sistema está integrado con los principales sistemas de archivos HPC, como Lustre, IBM Spectrum Scale, BeeGFS y otros, para gestionar los requisitos de rendimiento y fiabilidad de las infraestructuras de computación más grandes del mundo.

Los sistemas E-Series proporcionan el rendimiento, la fiabilidad, la escalabilidad, la simplicidad y el menor coste total de propiedad necesarios para afrontar los retos de admitir cargas de trabajo extremas:

  • Rendimiento. Ofrece hasta 1 millón de IOPS de lectura aleatoria y un ancho de banda de escritura sostenido (máximo de ráfaga) de 13 GB/s por bloque de creación escalable. La solución HPC de NetApp, optimizada tanto para flash como para discos tradicionales, incluye tecnología integrada que supervisa las cargas de trabajo y ajusta automáticamente las configuraciones para maximizar el rendimiento.
  • Fiabilidad. El diseño tolerante a fallos ofrece una disponibilidad de más del 99,9999 %, demostrada por más de un millón de sistemas puestos en marcha. Las funciones integradas de garantía de datos aseguran que los datos son precisos sin faltas, corrupciones o bits perdidos.
  • Implementación y gestión sencillas. El diseño modular, la replicación sobre la marcha («cortar y pegar») de bloques de almacenamiento, la supervisión proactiva y los scripts de automatización aumentan la gestión sencilla, rápida y flexible.
  • Escalabilidad. Un enfoque granular y modular pensado para el crecimiento que permite una escalabilidad fluida de terabytes a petabytes mediante la incorporación de capacidad en cualquier incremento: una o varias unidades a la vez.
  • Menor TCO. Módulos optimizados en precio y rendimiento y la mejor densidad del sector proporcionan bajos costes de alimentación, refrigeración y soporte, y tasas de fallos 4 veces inferiores a las de los dispositivos HDD y SSD genéricos.

Soluciones por sectores

HPC en Azure

Cumple con las necesidades críticas de tu entorno de computación de alto rendimiento con Azure NetApp Files.

Drift chat loading