| Actualités | Documentation | Liens | Nous Contacter | Rechercher | Accès réservé |
  • French
Accueil arrow Support technique arrow Utilisation du Cluster ClimServ arrow Le cluster de calcul

Accueil
- - - - - - - - - - - - - - - - - - - -
Catalogue de données
- - - - - - - - - - - - - - - - - - - -
Accéder à ClimServ
- - - - - - - - - - - - - - - - - - - -
Support technique
Etat du Cluster
- - - - - - - - - - - - - - - - - - - -
Orbitographie (Ixion)

Le cluster de calcul Version imprimable
Index de l'article
Le cluster de calcul
Les commandes utilisateur

La soumission de traitement au cluster de calcul est gérée par le gestionnaire Torque. Torque est le résultat d'un effort communautaire issu du projet original PBS, et bénéficie d'extensions développées par des organismes tels que NCSA, OSC, USC, le ministère de l'énergie des ETATS-UNIS, Sandia, PNNL, l'Université de Buffalo, TeraGrid. Torque fournit à la fois un gestionnaire de ressources qui permet de contrôler la charge de chacun des noeuds du cluster, un gestionnaire de batch qui est chargé de transmettre les traitements soumis par les utilisateurs, et un ordonnanceur qui permet de programmer l’exécution des traitements sur chacun des noeuds en fonction des ressources disponibles. ClimServ utilise l’ordonnanceur Maui.

Les machines du Cluster

Le cluster est actuellement constitué d'un noeud maître et de 16 noeuds de calcul représentant l'équivalent de 140 processeurs, toutes ces machines étant basées sur des architectures multi-processeurs multi-coeurs AMD Opteron 64 bits. Plus précisément le cluster est constitué de :

  • 1 noeud quad-pro AMD Opteron 6136 8-core 2,4 GHz 128 Go de RAM, /tmp de 300 Go
  • 1 noeud quad-pro AMD Opteron 6174 12-core 2,2 GHz 128 Go de RAM, /tmp de 300 Go
  • 2 noeuds quad-pro AMD Opteron 6378 16-core 2,4 GHz 256 Go de RAM, /tmp de 270 Go
  • 5 noeuds bi-pro AMD Opteron 2220 2-core 2,8 GHz, 16 Go de RAM, /tmp de 36 Go
  • 8 noeuds bi-pro AMD Opteron 2356 4-core 2,3 GHz, 32 Go de RAM, /tmp de 103 Go
  • 2 noeuds bi-pro AMD Opteron 2435 6-core 2,6 GHz, 48 Go de RAM, /tmp de 36 Go

L'accès au cluster se fait depuis les serveurs interactifs (camelot, loholt1 et 2) à travers le gestionnaire de batch grâce à la commande qsub. Le nom d'hôte du noeud maître est merlin.

Le gestionnaire de batch gère ensuite l'exécution des jobs sur un noeud de calcul ou un autre. Evitez surtout de lancer des programmes sur merlin et les noeuds de calcul en dehors du système de batch. Tout programme exécuté sur le cluster en dehors du gestionnaire de batch sera supprimé sans préavis.

L'interface graphique xpbsmon, la commande pbsnodes -l et la commande check-cluster  permettent de surveiller la disponibilité des machines du Cluster.

La configuration de Torque

Six files (ou queues) ont été configurées pour la soumission des jobs en fonction de la durée des calculs :

 

 Nom de la Queue

 Limite en temps (walltime)

 Limite du nombre de jobs en exécution Limites mémoires par défaut (modifiables par l'utilisateur) 
 - default
 Queue de routage vers les queues d'execution
 - std  6h CPU  pas de limite  Min : 2 Go / Max : 4 Go
 - day  24 h CPU  pas de limite  Min : 2 Go / Max : 4 Go
- threedays
 72 h CPU
 20 jobs / utilisateur  Min : 2 Go / Max : 4 Go
 - week  168 h CPU  10 jobs / utilisateur  Min : 2 Go / Max : 4 Go
 - infini  pas de limite  5 jobs / utilisateur  Min : 2 Go / Max : 4 Go

 

Si un job dépasse le temps maximum alloué à la file d'exécution, il est automatiquement tué par le gestionnaire de batch.

La priorité d'exécution d'un job dans la file d'attente dépend de l'historique d'utilisation du cluster sur une semaine pour chaque l'utilisateur.

Limites Mémoires

La valeur par défaut de la mémoire minimum requise par chaque job est fixée à 2 Go : sans autre précision de l'utilisateur, chaque job se verra attribué au moins 2Go de mémoire sur le noeud sur lequel il sera affecté.

La valeur par défaut de la mémoire maximum pouvant être utilisée par le job est fixée à 4 Go : sans autre précision de l'utilisateur, chaque job sera automatiquement supprimé s'il requiert plus de 4 Go pendant son exécution.

Ces valeurs par défaut peuvent être modifiées au moment de la soumission du job grâce aux options de qsub. Par exemple :

  • pour modifier la mémoire minimum requise du job exemple.pbs :
qsub -l mem=4g exemple.pbs
  • pour modifier la mémoire maximum permise pour le job exemple.pbs :

 qsub -l vmem=6g exemple.pbs

  • pour modifier les valeurs minimum et maximum de mémoire pour le job exemple.pbs : 
qsub -l mem=4g,vmem=6g exemple.pbs

 

Pour plus d'information sur l'ensemble des ressources pouvant être spécifiées pour un job : man pbs_resources 

 L'interface graphique xpbs ou la commande qstat permettent de surveiller la répartition des jobs sur chaque file.



Dernière mise à jour : ( 06-12-2013 )
 
< Précédent