Utilisation de OpenMPI (Documentation adaptée de celle de CICLAD, P.Weill 2009)
Implémentations de MPI sur ClimServ Sur ClimServ plusieurs implémentations de mpi sont disponibles pour les différents compilateurs. Pour connaitre les implémentations de mpi disponibles : $ mpi-selector --list - lam-x86_64
- openmpi-1.2.8-gcc-x86_64
- openmpi-1.4.2-g95-x86_64
- openmpi-1.4.2-gfortran-x86_64
- openmpi-1.4.3-ifort-x86_64
- openmpi-1.4.3-pgf-x86_64
- openmpi-1.4.3-pgfgcc-x86_64
La version configurée par défaut est pour gcc-gfortran. Pour savoir laquelle est configurée pour votre compte : $ mpi-selector --query - default:openmpi-1.2.8-gcc-x86_64
- level:system
Chaque utilisateur peux choisir celle qu'il veut : $ mpi-selector --set openmpi-1.4.3-ifort-x86_64 Ensuite en se déloguant, au login suivant : $ mpi-selector --query - default:openmpi-1.4.3-ifort-x86_64
- level:user
$ which mpirun - mpirun is /usr/lib64/openmpi/1.4.3-ifort/bin/mpirun
Utilisation de OpenMPI sur le clusterPour les batch il n'est pas utile de préciser à mpirun le nombre de processeur (-np) car c'est le gestionnaire de batch qui le communique à OpenMPI. - Par exemple, pour lancer un job sur 4 cpus d'un même noeud, taper :
$ qsub -l nodes=1:ppn=4 monjob.sh - Pour 4 cpus repartis sur 2 nœud, taper :
$ qsub -l nodes=2:ppn=2 monjob.sh |
Dernière mise à jour : ( 06-12-2013 )
|