Le gestionnaire de charge/Planificateur (SLURM)
Le gestionnaire de ressources, et planificateur, a pour but de planifier et exécuter les tâches/calculs sur un calculateur. Son rôle est de rechercher et d’assigner les ressources disponibles aux différents calculs qui lui sont soumis. Les calculs sont au fur et à mesure ajouter à la file d’attente, SLURM décide ensuite en fonction des ressources disponibles et d’autres facteurs sur quel serveur la tâche va rouler. Cette tâche est appelée un job.
Les types de jobs
SLURM accepte 2 types de jobs:
Le Job en batch
Job en batch
Le calcul en batch est le type de job à privilégier sur un calculateur car il permet d’ajouter son script à la file d’attente sans attendre que les ressources soient disponibles et d’obtenir la sortie du calcul dans son répertoire de travail (output).
Afin de soumettre un calcul en batch, on utilise la commande sbatch <nom_du_script>
.
Exemple
$ sbatch monscript.sh
sbatch: Submitted batch job 65541
Un script pour un job en batch se présente comme suit:
#!/bin/bash
# Le shell à utiliser doit toujours être la 1ère ligne
# Les directives de soumission pour SLURM commencent ensuite par "#SBATCH" :
#SBATCH --job-name=mon_calcul
#SBATCH --mail-type=BEGIN,END
#SBATCH --partition=cpu
#SBATCH --nodes=1
#SBATCH --cpus-per-task=4
#SBATCH --mem=64G
#SBATCH --time=1:00:00
# Les différentes directives à exécuter sont insérées ensuite:
echo "Je roule sur le noeud $HOSTNAME"
sleep 60
Il existe de nombreuses directives de soumission pour SLURM dont la plupart sont communes aux jobs en batch et interactifs dont les plus importantes sont réunies dans le tableau ci-après.
Job interactif
TODO
Les commandes à connaitre
Les commandes les plus couramment utilisées pour interagir avec SLURM sont réunies dans le tableau ci-dessous et certaines sont détaillées dans les sections suivantes:
Commande |
Description |
---|---|
sinfo sinfo -l sinfo -N -l |
Etat des noeuds, des partitions |
squeue squeue -u mon_username squeue -j jobid squeue -p partition |
Etat de la file d’attente |
sbatch sbatch -ressources mon_script.sh |
Soumette un job en batch |
salloc salloc -ressources |
Lancer un job interactive |
scancel scancel jobid |
Annuler un job |
scontrol scontrol show jobid -dd scontrol show node |
Information détaillée sur les noeuds/jobs |
Les directives de soumission
Pour un job en batch ou en interactif, les ressources demandées sont spécifiées sur la ligne de
commande accolée à la commande sbatch/salloc
(ou au début du script en batch).
Les plus couramment utilisées sont réunies dans le tableau ci-dessous et la liste complète
peut être consultée sur la page officielle des commandes SLURM:
sbatch / salloc.
Directive |
Description |
---|---|
–cpus-per-task=<X> -c 4 |
Nombre de coeurs |
–mem=<size>[units] –mem=64 |
Ram |
–gres=gpu:X –gres=gpu:v100:1 |
Gpu |
-t, –time=HH:MM:SS |
Temps maximum |
–partition=cpu/gpu |
En fonction du type de calcul demandé (automatique) |
–output=fichier.log |
Fichier contenant tout l’output du calcul. Si absent, défaut vers slurm-<jobid>.out |
La queue de calcul
Chaque job soumis est ajouté à la queue de calcul de SLURM qui définit la place du calcul dans la file d’attente suivant différents facteurs comme les ressources demandées et votre utilisation effective.
Afin d’afficher l’état de la queue de calcul on utilise la commande squeue
Les types de noeud/partition
Afin d’orienter les jobs vers les noeuds possédant les ressources les plus adéquates sans bloquer l’utilisation d’autres ressources spécifiques, les noeuds sont répartis en partition qui sont des queues de calcul séparées.
Note
Le calculateur ne possédant que 2 noeuds: un noeud CPU et un noeud GPU, la sélection de la partition est automatique et il n’est pas nécessaire de la spécifier dans les ressources.
Le fichier de sortie (output
)
Par défaut le nom du fichier de sortie est : slurm-<job id>.out