Supercomputador LUSITANIA III

Versión para impresiónVersión en PDF

Desde principios de 2020, Extremadura cuenta con el Supercomputador LUSITANIA III, alojado en Cáceres. 

LUSITANIA III ha sido financiado con Fondos FEDER gestionados desde la Consejería de Economía, Ciencia y Agenda Digital de la Junta de Extremadura a través de la Secretaría General de Ciencia, Tecnología, Innovación y Universidad.

Para COMPUTAEX supone un hito de extraordinaria importancia en los diez años de historia de la fundación en los que ha prestado servicios de cálculo intensivo en proyectos desarrollados por la comunidad científica y el tejido empresarial de todos los ámbitos.

En concreto, LUSITANIA III incrementa de forma destacable los recursos de cómputo ofrecidos por la Fundación COMPUTAEX, alcanzando una capacidad de cálculo total de supercomputación de 93 TFlops más 120 TFlops de computación gráfica, sobre una red Infiniband de hasta 100 Gbps, y proporcionando un total de 3.696 cores y 40.960 cuda cores, que estarán a disposición de investigadores, innovadores, tecnólogos y todo tipo de usuarios que necesiten sus recursos.

LUSITANIA III cuenta con una arquitectura IBM Power Systems ACP que destaca por sus altas capacidades de almacenamiento (IBM Elastic Storage) y de cálculo, así como por el software necesario para facilitar su uso y sacar el máximo provecho a los recursos disponibles.

Incluye además la plataforma de Inteligencia Artificial Watson Machine Learning Community Edition de IBM, que permite a los científicos simular el comportamiento de procesos físicos y químicos tal como lo harían en la vida real.

Por favor, visite el siguiente enlace si desea realizar una solicitud de recursos y servicios de supercomputación.

 

 

A continuación se detallan las características de LUSITANIA III:

Nodos de cómputo

  • 2 IBM Power Systems Accelerated Compute Server (AC922) con 2 procesadores POWER9 con 20 cores cada uno, a 2,4GHz (40 cores por nodo), con 1TB de RAM y 2 Nvidia Tesla V100 GPU with NVLink SXM2.
  • 2 IBM Power Systems Accelerated Compute Server (AC922) con 2 procesadores POWER9 con 20 cores cada uno, a 2,4GHz (40 cores por nodo), con 128GB de RAM y 2 Nvidia Tesla V100 GPU with NVLink SXM2.

Nodo de cómputo de memoria compartida

  • 1 Primergy RX4770 M2 con 4 procesadores Intel Xeon E7-4830v3 con 12 cores cada uno, a 2,1GHz, con 30MB de Caché (48 cores en total), 1,5 TB de memoria RAM DDR4, 4 fuentes de alimentación y discos SAS de 300GB.

Clúster de memoria distribuida

  • 10 chasis Fujitsu Primergy CX400 con capacidad para albergar hasta 4 servidores cada uno.
  • 40 servidores Fujitsu Primergy CX2550 con 2 procesadores Intel Xeon E5-2660v3, de 10 cores cada uno, a 2,6GHz (20 cores por nodo, 800 cores en total) y 25 MB de caché, con 80GB de RAM y 2 discos SSD 128GB.
  • 168 IBM System x iDataPlex dx360 M4 con 2 procesadores Intel E5-2670 SandyBridge-EP, de 8 cores cada uno, a 2.6GHz (16 cores por nodo, 2688 cores en total) 20 MB de caché y 32GB de RAM.
  • 2 racks IBM iDPx con RDHX (water cooling) con capacidad para albergar 84 servidores cada uno.

Clúster hiperconvergente de cloud computing

  • 3 nodos HX-5522 cada uno con 2 procesadores Intel Xeon Gold 5220 (Cascade Lake) de 18 cores cada uno a 2,2GHz. Cada nodo cuenta con 512GB de RAM, 2 discos SSD M.2 de 128GB, 2 discos SSD de 1,92TB y 4 discos HDD de 8TB. En total, el clúster cuenta con 96TB HDD, 11,52TB SSD y 768 GB SSD M.2.  Además, estos nodos cuentan con una interconexión de red de 25GbE.

Nodos de servicio

  • 1 IBM Power Systems Accelerated Compute Server (AC922) con 2 procesadores POWER9 con 16 cores cada uno, a 2,7GHz (32 cores por nodo) y 128GB de RAM.
  • 3 servidores Fujitsu Primergy RX2530 M1, cada uno con 2 procesadores Intel Xeon E5-2620v3 (6 cores a 2,4GHz y 15 MB de caché); 32GB de RAM DDR4, 2 discos SAS de 300GB.
  • 1 servidor IBM System x x3550 M4 con 1 procesador Intel SandyBridge-EP (8 cores a 2.6GHz y 20MB de caché); 16 GB RAM, 2 discos SAS de 300GB.

Nodos de desarrollo

  • 2 servidores Fujitsu Primergy RX2530 M1 con 2 procesadores Intel Xeon E5-2620v3 (6 cores a 2,4GHz y 15 MB de caché); 64GB de RAM DDR4, 2 discos SAS de 300GB.

Almacenamiento

  • Elastic Storage Server GL1S con una capacidad de almacenamiento de 656TB RAW:
    • 1 enclosure con 84 slots: 82 x 8TB Enterprise HDD y  2x 800GB SSD.
    • 2 Data Servers:
      • 2 x 10-core 3.42 GHz POWER8 Processor Card y 256GB RAM cada uno.
    • 1 ESS Management Server:
      • 10-core 3.42 GHz POWER8 Processor Card y 64GB RAM.
    • Licenciamiento de IBM Spectrum Scale.
  • Cabina de metadatos (MDT) Eternus DX 200S3 (15 discos de 900GB SAS) = 12 TB.
  • 2 servidores Fujitsu Primergy RX2530 M1 con 2 procesadores Intel Xeon E5-2620v3 (6 cores a 2,4GHz y 15 MB de caché); 64GB de RAM DDR4 y 2 discos SAS de 300GB para gestión de metadatos con Lustre.
  • Cabina de datos (OST) Eternus DX 200 (41 discos de 2TB NL-SAS y 31 discos de 4TB NL-SAS) = 206 TB
  • 2 servidores Fujitsu Primergy RX2530 M1 con 2 procesadores Intel Xeon E5-2620v3 (6 cores a 2,4GHz y 15 MB de caché); 64GB de RAM DDR4, 2 discos SAS de 300GB para gestión de los objetos con Lustre.

Topología de red

La conectividad del supercomputador con el exterior se resuelve a través de una conexión de hasta 10Gbps con la Red Científico Tecnológica de Extremadura, que conecta las principales ciudades y centros tecnológicos de la región. Interconectada a su vez con RedIRIS y con la red europea GÉANT.

Internamente, la infraestructura de servicio y cálculo se vertebra sobre:

  • 1 EDR Mellanox TOR 36-port IB2 FAF 100 Gb/s IB Switch 1:8828 Model G36.
  • 1 Ethernet IBM Switch (48x1Gb+4x10Gb) 1:8831 Model S52.
  • Dos firewall Fortinet Fortigate 1000C como sistema de seguridad perimetral, capacidad de firewall, VPN, antivirus, detección de intrusiones y gestión de ancho de banda por conexión, configurados como un clúster redundante activo-pasivo de alto rendimiento y gran capacidad de procesamiento.
  • 14 switches Infiniband Mellanox SX6036 de 36 puertos FDR a 56Gbps para red de cómputo.
  • 4 switches BNT G8052F de 48 puertos y 1 switch BNT G8000 de 48 puertos.
  • Tres switches Brocade ICX6430 de 48 puertos y un switch Brocade ICX6430 de 24 para la red de comunicación y de gestión del supercomputador.
  • Tres switches InfiniBand Mellanox IS5030 de 36 puertos QDR a 40Gbps para la red de cómputo.