RRZE-Clusters

Manage your HPC-Access:

https://portal.hpc.fau.de/

SSH-Key

ssh-keygen -t rsa -b 4096 -f ~/.ssh/hpc

Costs

Preise für HPC-Nutzung auf Anfrage.

Bedingungen/Voraussetzungen für die Nutzung der Hochleistungsrechner:

  • Die Nutzung der Hochleistungsrechner und Compute-Server des RRZE ist auf wissenschaftliche Projekte mit besonderem Rechenbedarf beschränkt.
  • Für die Einrichtung eines Accounts auf den HPC-Systemen ist ein besonderer Benutzerantrag erforderlich, auf dem auch die groben Anforderungen des Projekts kurz dargelegt werden müssen.
  • Vor der Nutzung der Systeme ist die HPC-Gruppe des RRZE zu kontaktieren.
  • Der HPC-Basisdienst (Nutzung durchschnittlicher Ressourcen im regulären Batchbetrieb für ausschließlich wissenschaftliche Zwecke, Standard-Quota auf den HPC-Dateisystemen) ist für Wissenschaftler der FAU kostenfrei. Für darüber hinausgehende Anforderungen, für industrielle Auftragsforschung sowie Anwender außerhalb dieses Kreises gelten besondere Konditionen. Nähere Auskünfte erteilt stets die HPC-Gruppe.
  • Für Forschungsvorhaben, die durch die DFG oder vergleichbare öffentliche Drittmittelgeber gefördert werden, wird ebenfalls keine Schutzgebühr in Rechnung gestellt, sofern der Rechenzeitbedarf im Vorfeld der Antragstellung mit der HPC-Gruppe abgestimmt wurde.
  • Das RRZE behält sich vor, von seinen HPC-Kunden in zumutbarem zeitlichem Abstand Projektberichte anzufordern, die Eingang in die regelmäßigen Publikationen (Benutzerinformation, HPC-Broschüre) finden. Dies hat den Zweck, die sinnvolle Nutzung der Ressourcen zu dokumentieren und dient somit letztendlich auch der Außendarstellung der Institute, des RRZE und der gesamten Universität.

HPC-Systems

single node jobs

see woody Haswell nodes (w11xx).:::

Cluster-List

Woody

  • 8 GB Memory per node
  • 4 cores per node
  • 72 nodes haswell 4 cores per node + HT (:hw)
Job type Available nodes Required qsub propertiy Default qsub property Optional qsub property arch singe node (openmp) perf
Single core (ppn != 4) 40x w10?? :sb
Single node (ppn = 4) 248x w???? :any :any
136x w0??? :c2 core2due (woodcrest) 96 GFlop/s
112x w1??? :avx corei7-avx (inclues :sb + :hw)
40x w10?? :sb corei7-avx (sandy bridge) 224 GFlop/s
72x w11?? :hw corei7-avx2/corei7-avx-i (haswell) 435 GFlop/s
Multi node (ppn=4) 136x w0?? :c2

<del>Emmy</del>

  • 560 nodes (11.20 cores)
  • 2×10 cores per node (+ HT )
  • 64 GB memory per node

Other systems

  • Transtec cluster —
  • TinyBlue cluster —
  • TinyFAT cluster —
  • TinyGPU cluster —

Cluster usage

File systems
  • /home/hpc/ —
  • /home/woody/ —
  • /home/cluster64/ —
  • /home/vault/ —
  • $FASTTMP=/lxfs

Job Scheduler

  • SLURM

Further Resources

Log In