Le gestionnaire de charge/Planificateur (SLURM)

Le gestionnaire de ressources, et planificateur, a pour but de planifier et exécuter les tâches/calculs sur un calculateur. Son rôle est de rechercher et d’assigner les ressources disponibles aux différents calculs qui lui sont soumis. Les calculs sont au fur et à mesure ajouter à la file d’attente, SLURM décide ensuite en fonction des ressources disponibles et d’autres facteurs sur quel serveur la tâche va rouler. Cette tâche est appelée un job.

Les types de jobs

SLURM accepte 2 types de jobs:

Job en batch

Le calcul en batch est le type de job à privilégier sur un calculateur car il permet d’ajouter son script à la file d’attente sans attendre que les ressources soient disponibles et d’obtenir la sortie du calcul dans son répertoire de travail (output).

Afin de soumettre un calcul en batch, on utilise la commande sbatch <nom_du_script>.

Exemple

$ sbatch monscript.sh
sbatch: Submitted batch job 65541

Un script pour un job en batch se présente comme suit:

#!/bin/bash
# Le shell à utiliser doit toujours être la 1ère ligne

# Les directives de soumission pour SLURM commencent ensuite par "#SBATCH" :

#SBATCH --job-name=mon_calcul
#SBATCH --mail-type=BEGIN,END
#SBATCH --partition=cpu
#SBATCH --nodes=1
#SBATCH --cpus-per-task=4
#SBATCH --mem=64G
#SBATCH --time=1:00:00

# Les différentes directives à exécuter sont insérées ensuite:

echo "Je roule sur le noeud $HOSTNAME"
sleep 60

Il existe de nombreuses directives de soumission pour SLURM dont la plupart sont communes aux jobs en batch et interactifs dont les plus importantes sont réunies dans le tableau ci-après.

Job interactif

TODO

Les commandes à connaitre

Les commandes les plus couramment utilisées pour interagir avec SLURM sont réunies dans le tableau ci-dessous et certaines sont détaillées dans les sections suivantes:

Commande

Description

sinfo

sinfo -l

sinfo -N -l

Etat des noeuds, des partitions

squeue

squeue -u mon_username

squeue -j jobid

squeue -p partition

Etat de la file d’attente

sbatch

sbatch -ressources mon_script.sh

Soumette un job en batch

salloc

salloc -ressources

Lancer un job interactive

scancel

scancel jobid

Annuler un job

scontrol

scontrol show jobid -dd

scontrol show node

Information détaillée sur les noeuds/jobs

Les directives de soumission

Pour un job en batch ou en interactif, les ressources demandées sont spécifiées sur la ligne de commande accolée à la commande sbatch/salloc (ou au début du script en batch). Les plus couramment utilisées sont réunies dans le tableau ci-dessous et la liste complète peut être consultée sur la page officielle des commandes SLURM: sbatch / salloc.

Directive

Description

–cpus-per-task=<X>

-c 4

Nombre de coeurs

–mem=<size>[units]

–mem=64

Ram

–gres=gpu:X

–gres=gpu:v100:1

Gpu

-t, –time=HH:MM:SS

Temps maximum

–partition=cpu/gpu

En fonction du type de calcul demandé (automatique)

–output=fichier.log

Fichier contenant tout l’output du calcul. Si absent, défaut vers slurm-<jobid>.out

La queue de calcul

Chaque job soumis est ajouté à la queue de calcul de SLURM qui définit la place du calcul dans la file d’attente suivant différents facteurs comme les ressources demandées et votre utilisation effective.

Afin d’afficher l’état de la queue de calcul on utilise la commande squeue

Les types de noeud/partition

Afin d’orienter les jobs vers les noeuds possédant les ressources les plus adéquates sans bloquer l’utilisation d’autres ressources spécifiques, les noeuds sont répartis en partition qui sont des queues de calcul séparées.

Note

Le calculateur ne possédant que 2 noeuds: un noeud CPU et un noeud GPU, la sélection de la partition est automatique et il n’est pas nécessaire de la spécifier dans les ressources.

Le fichier de sortie (output)

Par défaut le nom du fichier de sortie est : slurm-<job id>.out