===== RRZE-Clusters ===== Manage your HPC-Access: https://portal.hpc.fau.de/ ==== SSH-Key ==== ssh-keygen -t rsa -b 4096 -f ~/.ssh/hpc ==== Costs ==== [[https://www.rrze.fau.de/infocenter/preise-kosten/| Preise für HPC-Nutzung auf Anfrage.]] Bedingungen/Voraussetzungen für die Nutzung der Hochleistungsrechner: * Die Nutzung der Hochleistungsrechner und Compute-Server des RRZE ist auf **wissenschaftliche Projekte mit besonderem Rechenbedarf** beschränkt. * Für die Einrichtung eines Accounts auf den HPC-Systemen ist ein besonderer [[https://www.rrze.fau.de/files/2017/06/HPC-Antrag.pdf|Benutzerantrag]] erforderlich, auf dem auch die groben Anforderungen des Projekts kurz dargelegt werden müssen. * Vor der Nutzung der Systeme ist die HPC-Gruppe des RRZE zu kontaktieren. * Der HPC-Basisdienst (Nutzung durchschnittlicher Ressourcen im regulären Batchbetrieb für ausschließlich wissenschaftliche Zwecke, Standard-Quota auf den HPC-Dateisystemen) ist für Wissenschaftler der FAU kostenfrei. Für darüber hinausgehende Anforderungen, für industrielle Auftragsforschung sowie Anwender außerhalb dieses Kreises gelten besondere Konditionen. Nähere Auskünfte erteilt stets die HPC-Gruppe. * Für Forschungsvorhaben, die durch die DFG oder vergleichbare öffentliche Drittmittelgeber gefördert werden, wird ebenfalls keine Schutzgebühr in Rechnung gestellt, sofern der Rechenzeitbedarf im Vorfeld der Antragstellung mit der HPC-Gruppe abgestimmt wurde. * Das RRZE behält sich vor, von seinen HPC-Kunden in zumutbarem zeitlichem Abstand Projektberichte anzufordern, die Eingang in die regelmäßigen Publikationen (Benutzerinformation, HPC-Broschüre) finden. Dies hat den Zweck, die sinnvolle Nutzung der Ressourcen zu dokumentieren und dient somit letztendlich auch der Außendarstellung der Institute, des RRZE und der gesamten Universität. ==== HPC-Systems ==== === single node jobs === see woody Haswell nodes (w11xx).::: ==== Cluster-List ==== === Woody === * 8 GB Memory per node * 4 cores per node * 72 nodes haswell 4 cores per node + HT (:hw) ^ Job type ^ Available nodes ^ Required qsub propertiy ^ Default qsub property ^ Optional qsub property ^ arch ^ singe node (openmp) perf ^ | Single **core** (ppn != 4) | 40x w10?? | :sb | | | | | | Single **node** (ppn = 4) | 248x w???? | | :any | :any | | | | ::: | 136x w0??? | | ::: | :c2 | core2due (woodcrest) | 96 GFlop/s | | ::: | 112x w1??? | | ::: | :avx | corei7-avx (inclues :sb + :hw) | | | ::: | 40x w10?? | | ::: | :sb | corei7-avx (sandy bridge) | 224 GFlop/s | | ::: | 72x w11?? | | ::: | :hw | corei7-avx2/corei7-avx-i (haswell) | 435 GFlop/s | | Multi node (ppn=4) | 136x w0?? | | :c2 | | | | === Emmy === * 560 nodes (11.20 cores) * 2x10 cores per node (+ HT ) * 64 GB memory per node === Other systems === * Transtec cluster — * TinyBlue cluster — * TinyFAT cluster — * TinyGPU cluster — ==== Cluster usage ==== https://monitoring.nhr.fau.de/ == File systems == * /home/hpc/ — * /home/woody/ — * /home/cluster64/ — * /home/vault/ — * $FASTTMP=/lxfs === Job Scheduler === * SLURM ==== Further Resources ==== https://hpc-wiki.info/hpc/HPC_Wiki