SELECCIÓN DE LA MUESTRA Y MUESTREO EN INVESTIGACIÓN CUALITATIVA.pdf
Análisis de los principales supercomputadores españoles y mundiales
1. ANÁLISIS DE SUPERCOMPUTADORES.
FRANCISCO SÁNCHEZ OLIVER
MareNostrum
Elegí este superordenador porque es el único español y al ser algo antiguo pues hay más
información
Tiene 1240 procesadores IBM PowerPC 970MP
Consigue una capacidad de computación de 63’83 TFLOPS.
Tiene un total de 20TB de memoria.
Usa el sistema operativo SUSE Linux.
Se usa para distintas investigaciones: astronomía, ciencias de la Tierra y el espacio,
biomedicina, física, ingeniería, ciencias de la computación, química o ciencias materiales,
etc..
2. Hay que nombrar distintos clusters
CLUSTER NVIDIA GPU
A este cluster se le ha llamado “MinoTauro”. Este es un computador de propósito específico,
concretamente aprovecha el paradigma llamado GPGPU (General-Purpose Computing on
Graphics Processing Units)
Una GPU es un procesador diseñado para los cómputos implicados en la generación de
gráficos 3D interactivos, las ventajas de un procesador GPU es que se puede explotar un gran
paralelismo, y optimización para cálculos en coma flotante.
Este cluter está formado por 128 blades BullX B505 y cada uno de estos tiene los siguientes
componentes:
2 procesadores Intel Xeon E5649 de 6 núcleos.
2 tarjetas GPU NVIDIA Tesla M2090, que incluyen 6 GiB de memoria cada una.
24 GiB de memoria principal.
250 GB SSD de almacenamiento local.
2 enlaces Infiniband QDR de 40 Gbit/s cada uno en una red no bloqueante.
3. Estos 128 nodos están conectados mediante 14 conexiones 10 Gigabit Ethernet.
Usa el sistema operativo Red Hat Linux.
El software instalado está formado por la suite BullX Cluster:
El Intel Cluster Studio (que incluye compiladores de C, C++ y Fortran).
MKL (Math Kernel Library de Intel, biblioteca con funciones matemáticas).
Intel MPI
El colector y analizador de trazas de Intel.
El acelerador Fortran de PGI.
OpenMPI
El entorno CUDA.
Total= 256 procesadores Intel (1536 núcleos) y 256 tarjetas GPGPU, 3 TiB de memoria
principal, 1'5 TiB de memoria gráfica y 32 TiB de almacenamiento en discos SSD
Núcleos
Tarjetas GPGPU
Memoria
Almacenamiento disco duro
Capacidad de procesamiento
Red interconexión
256 procesadores Intel (1536
núcleos)
256 tarjetas
3 TiB principal
Y
1’5 TiB de memoria gráfica
32 TiB en discos SSD
185’78 TFLOPS
14 conexiones 10 Gigabit Ethernet
CLUSTER NORTE.
El BSC Nord es un cluster con 98 blades JS20 cada uno con la siguiente configuración:
2 CPUs PowerPC 970 a 2,2 GHz.
4 GiB de RAM por blade.
Rendimiento pico: 1,72 TFLOPS.
Interconexión a red Gigabit.
Sistema operativo SUSE Linux Enterprise 10 SP1.
Este pequeño cluster está formado por los restos de la primera instalación del MareNostrum.
4. SGI ALTIX 4700.
El SGI Altix es una máquina de memoria compartida, con una arquitectura
cc-NUMA . Su configuración de hardware es la siguiente:
128 CPUs de doble núcleo Montecito (IA-64). Cada uno de los 256 núcleos funciona a 1,6
GHz.
8 MiB de caché L3 y 533 MHz de bus.
2,5 TiB de RAM.
Rendimiento pico: 819,2 GFLOPS.
Dos discos internos SAS de 146 GB a 15 000 RPM.
12 externos discos SAS de 300 GB a 10 000 RPM.
Tianhe-2 (Top 1)
Núcleos
Rendimiento Linpack (Rmax)
Rendimiento teórico (Rpeak)
Potencia
Memoria
Red interconexión
Sistema operativo
Compilador
MPI
3.120.000
33 .862,7 TFlops/s
54.902,4 TFlop/s
17.808.00 kW
1.024.000 GB
TH Express-2
Linux
Icc
MPICH2
5. Tianhe-2 está formado por 16.000 nodos cada uno de los cuales tiene 2 procesadores Intel
Xeon Ivy Bridge y 3 coprocesadores para acelerar los cálculos Xeon Phi. Esto hace un total de
3.120.000 cores de cálculo, 384.000 Xeon y 2.736.000 cores en los coprocesadores Phi. Es una
novedad que tenga 3 coprocesadores por nodo pues lo habitual son uno o dos. Estos cores le
dotan de un rendimiento teórico ejecutando operaciones matemáticas de 54,9 PFLOPS
(Peta=10^15 FLoating-point Operation Per Second, 1.000.000.000.000.000 operaciones
matemáticas por segundo) y en el benchmark LINPACK alcanza un rendimiento real de 33,9
PFLOPS, lo cual es casi el doble que el anterior número 1 Titan.
La red de interconexión entre los nodos es un diseño propio, TH Express-2, y trata de evitar
que las comunicaciones sean un cuello de botella gracias al ancho de banda bidireccional de 16
GB/s, baja latencia y topología fat tree. Tianhe-2 usa el sistema operativo Kylin, basado en
Linux, y también desarrollado por la NUDT y optimizado para HPC. El hecho de estar basado en
un estándar como Linux le da mucha flexibilidad a la hora de ejecutar muchos códigos sin
necesidad de reprogramarlos específicamente.
Tianhe consume 17.8 MW, que equivale aproximadamente al consumo de 27.000 familias, a
pesar de lo cual es también en un supercomputador muy eficiente dado el alto número de
FLOPS por watio que realiza, aunque cuando se anuncie la lista green500.org de los
computadores energéticamente más eficientes del mundo probablemente ocupará entorno al
puesto 40.
De acuerdo a la NUDT Tianhe-2 estará dedidado a aplicaciones de simulación, análisis y
seguridad nacional.
Cray XK7(Top 2)
cual es también en un supercomputador muy eficiente dado el alto número de FLOPS por
watio que realiza, aunque cuando se anuncie la lista green500.org de los computadores
energéticamente más eficientes del mundo probablemente ocupará entorno al puesto 40.
Núcleos
Rendimiento Linpack (Rmax)
Rendimiento teórico (Rpeak)
Potencia
Memoria
Red interconexión
560.640
17.590,0 TFlops/s
27.112,5 TFlop/s
8.209.00 kW
710.144 GB
Cray Gemini interconnect