Decommisioned CoolMUC

Als wesentliche Erweiterung der parallelen Tier-2 HPC-Infrastruktur am LRZ hat MEGWARE 2011 178 Knoten auf der Basis von Dual-Socket AMD Magny-Cours Knoten mit 8 Cores pro Sockel installiert; das Hochleistungs-Verbindungsnetzwerk basierte auf InfiniBand QDR-Technologie. Die aggregierte Spitzenleistung dieses Clusters betrug 22 TFlop/s. Dieses System diente auch als Forschungsplattform für Energieeffizienz und Kühlungstechnologien, da ein großer Teil davon auf der System Board-Ebene mit einer hohen Vorlauftemperatur (> 38 °C) wassergekühlt wurde; ein kleinerer Teil wurde durch Einsatz einer Adsorptionskältemaschine effizient luftgekühlt. Auf der Softwareseite wurde der SLURM Scheduler eingesetzt, um Benutzer-Jobs abzuarbeiten, und ParTec Parastation MPI unterstützte die Ausführung von großen parallelen, über die Rechenknoten verteilten Programmen.


CoolMUC: System Overview

Hardware

Number of nodes

183

Number of cores

2928


AMD Opteron 6128HE

Cores per node (dual socket)

16

Hyperthreads per core

2

Core nominal frequency

2.0 GHz

Memory per node

16 GB

Bandwidth to interconnect per node

13,64 GB/s (1 Link)

Bisection bandwidth of interconnect (per island)

3.5 TB/s

Latency of interconnect

2.3 µs

Peak performance of system

22.8 TFlop/s

Infrastructure

Electric power of fully loaded system

45 kW

Percentage of waste heat to warm water

97%

Inlet temperature range for water cooling

30 … 50 °C

Temperature difference between outlet and inlet

4 … 6 °C

Software (OS and development environment)

Operating system

SLES15 SP1 Linux

MPI

Intel MPI 2019, alternatively OpenMPI

Compilers

Intel icc, icpc, ifort 2019

Performance libraries

MKL, TBB, IPP

Tools for performance and correctness analysis

Intel Cluster Tools