−Table of Contents
RRZE-Clusters
Manage your HPC-Access:
SSH-Key
ssh-keygen -t rsa -b 4096 -f ~/.ssh/hpc
Costs
Preise für HPC-Nutzung auf Anfrage.
Bedingungen/Voraussetzungen für die Nutzung der Hochleistungsrechner:
- Die Nutzung der Hochleistungsrechner und Compute-Server des RRZE ist auf wissenschaftliche Projekte mit besonderem Rechenbedarf beschränkt.
- Für die Einrichtung eines Accounts auf den HPC-Systemen ist ein besonderer Benutzerantrag erforderlich, auf dem auch die groben Anforderungen des Projekts kurz dargelegt werden müssen.
- Vor der Nutzung der Systeme ist die HPC-Gruppe des RRZE zu kontaktieren.
- Der HPC-Basisdienst (Nutzung durchschnittlicher Ressourcen im regulären Batchbetrieb für ausschließlich wissenschaftliche Zwecke, Standard-Quota auf den HPC-Dateisystemen) ist für Wissenschaftler der FAU kostenfrei. Für darüber hinausgehende Anforderungen, für industrielle Auftragsforschung sowie Anwender außerhalb dieses Kreises gelten besondere Konditionen. Nähere Auskünfte erteilt stets die HPC-Gruppe.
- Für Forschungsvorhaben, die durch die DFG oder vergleichbare öffentliche Drittmittelgeber gefördert werden, wird ebenfalls keine Schutzgebühr in Rechnung gestellt, sofern der Rechenzeitbedarf im Vorfeld der Antragstellung mit der HPC-Gruppe abgestimmt wurde.
- Das RRZE behält sich vor, von seinen HPC-Kunden in zumutbarem zeitlichem Abstand Projektberichte anzufordern, die Eingang in die regelmäßigen Publikationen (Benutzerinformation, HPC-Broschüre) finden. Dies hat den Zweck, die sinnvolle Nutzung der Ressourcen zu dokumentieren und dient somit letztendlich auch der Außendarstellung der Institute, des RRZE und der gesamten Universität.
HPC-Systems
single node jobs
see woody Haswell nodes (w11xx).:::
Cluster-List
Woody
- 8 GB Memory per node
- 4 cores per node
- 72 nodes haswell 4 cores per node + HT (:hw)
Job type | Available nodes | Required qsub propertiy | Default qsub property | Optional qsub property | arch | singe node (openmp) perf |
---|---|---|---|---|---|---|
Single core (ppn != 4) | 40x w10?? | :sb | ||||
Single node (ppn = 4) | 248x w???? | :any | :any | |||
136x w0??? | :c2 | core2due (woodcrest) | 96 GFlop/s | |||
112x w1??? | :avx | corei7-avx (inclues :sb + :hw) | ||||
40x w10?? | :sb | corei7-avx (sandy bridge) | 224 GFlop/s | |||
72x w11?? | :hw | corei7-avx2/corei7-avx-i (haswell) | 435 GFlop/s | |||
Multi node (ppn=4) | 136x w0?? | :c2 |
<del>Emmy</del>
- 560 nodes (11.20 cores)
- 2×10 cores per node (+ HT )
- 64 GB memory per node
Other systems
- Transtec cluster —
- TinyBlue cluster —
- TinyFAT cluster —
- TinyGPU cluster —
Cluster usage
File systems
- /home/hpc/ —
- /home/woody/ —
- /home/cluster64/ —
- /home/vault/ —
- $FASTTMP=/lxfs
Job Scheduler
- SLURM