Login

Der Zugang erfolgt via ssh mit einem zweistufigen Authentifizierungsverfahren, siehe Anleitung.

Es existieren 3 Loginknoten:

  • login01.magnitude.uni-due.de
  • login02.magnitude.uni-due.de
  • login03.magnitude.uni-due.de
  • sowie login.magnitude.uni-due.de, welches auf login01 verweist

Nach erfolgreichem Login ist das uniweite home Verzeichnis des Nutzers auf dem Login Node gemounted. Es steht auch auf den Compute Nodes zur Verfügung, auch wenn die Nutzung hier nicht empfohlen wird. Es handelt sich um das gleiche home verzeichniss, welches auch auf der cray gemounted wird.

Beim ersten login eines Nutzers wird auf /scratch ein Verzeichniss mit dem Namen des Nutzers angelegt. Dieses ist das Arbeitsverzeichniss für die Nutzer und ist mit einer guten Performance an die Compute Nodes angebunden. Alle Arbeiten sollten in diesem Verzeichniss durchgeführt werden.

ACHTUNG: Für die Nutzerdaten im /scratch-Verzeichnis gelten die Fristen für das automatische Löschen gemäß aktuller Nutzerrichtlinien.

Umgebung

Da die home Verzeichnisse der Nutzer auf mehreren Rechnern genutzt werden, wird empfohlen in die profil dateien nur die systemweiten Defaults einzutragen. Diese sind:

  1. .bash_profile
    # .bash_profile
    # Get the aliases and functions
    if [ -f ~/.bashrc ]; then
            . ~/.bashrc
    fi
    # last line
     
  2. .bashrc
    # .bashrc
    if [ -f /etc/bashrc ]
    then
        . /etc/bashrc
    fi
    # last line

Alle Ergänzungen sollten in separate kleine Scripte, die bei Bedarf gesourct werden.

Für das laden bestimmter Softwareumgebungen/Tools steht module zur Verfügung. Detail hier

 

Queueing-System Slurm

Für die Jobverarbeitung wird auf der magnitUDE das Queueing-System SLURM eingesetzt. Einen Übersicht findet sich hier

Die wichtigsten Befehle lauten:

Übersicht Warteschlange squeue -l
Übersicht Partitionen sinfo -l
Job übermitteln sbatch <jobscript>
Job abbrechen scancel <jobid>
Jobinformation (kurz) squeue --job <jobid>
Jobinformation (detailliert) scontrol show job <jobid>

 

A comparison of SLURM commands towards other scheduling systems see https://slurm.schedmd.com/rosetta.pdf