Ceci est une ancienne révision du document !
MPICH
sur nemo, slatp, shrek 1.2.6, 1.2.7p1, 1.2.7.p1 32bits et 64 bits
http://www-unix.mcs.anl.gov/mpi/mpich/
/usr/local/mpich-1.2.6
/usr/local/mpich-1.2.6-new
/usr/local/mpich-1.2.7p1
HPC Cluster Tools 6
mars 06
Sun MPI 7.0 Software Programming and Reference Guide
ajouter /opt/SUNWhpc/bin dans le PATH (ou utiliser plutôt la commande module)
module load hpc
HPC Cluster Tools 7
Annonce:
The ClusterTools 7 (CT7) Revenue Release is now available at http://www.sun.com/software/products/clustertools/ct7.html The CT7 user documentation is available at http://www.sun.com/products-n-solutions/hardware/docs/Software/Sun_HPC_ClusterTools_Software/ The CT7 software is a set of MPI libraries and tools for launching parallel MPI jobs on Solaris (Sparc and x64). CT7 includes support for IB networks via a uDAPL Byte-Transfer Layer (BTL) and support for launching jobs with N1 Grid Engine (N1GE). Other interconnects supported are TCP, shared memory, and Myrinet MX. CT7 is the first Sun release based on the Open MPI open source software. More information about Open MPI can be found at http://www.open-mpi.org
Tests MPI
avec MPICH 1.2.6 installé dans /usr/local. Penser à mettre à jour le PATH
nemo-henry% setenv PATH /usr/local/mpich-1.2.6/bin:${PATH} nemo-henry% pwd /local/henry/tests/MPI/mpi1_tp/tp6/solution nemo-henry% make mpirun -np 8 ./CommSplit Rang : 0 ; Coordonnees : (0,0) ; W = 1. Rang : 3 ; Coordonnees : (1,1) ; W = 2. Rang : 1 ; Coordonnees : (0,1) ; W = 1. Rang : 4 ; Coordonnees : (2,0) ; W = 3. Rang : 2 ; Coordonnees : (1,0) ; W = 2. Rang : 6 ; Coordonnees : (3,0) ; W = 4. Rang : 5 ; Coordonnees : (2,1) ; W = 3. Rang : 7 ; Coordonnees : (3,1) ; W = 4.
Remarque:
- on utilise la version 32 bits de MPICH (pour la version 64 bits)
nemo-henry% file /local/henry/tests/MPI/mpi1_tp/tp6/solution/CommSplit /local/henry/tests/MPI/mpi1_tp/tp6/solution/CommSplit: ELF 32-bit LSB executable 80386 Version 1 [FPU], dynamically linked, not stripped
- la configuration de MPICH est dans le fichier /usr/local/mpich-1.2.6/share/machines.solaris86
Tests PETSC
nemo-henry% setenv PATH /opt/SUNWspro/bin:${PATH} nemo-henry% pwd /local/henry/tests/petsc/test nemo-henry% cc -KPIC -g -xtarget=opteron -o ex1 ex1.c \ -R/usr/local/mpich-1.2.6/lib \ -L/usr/local/mpich-1.2.6/lib \ -I/usr/local/mpich-1.2.6/include \ -lmpich \ -R/local/henry/petsc-2.3.0-debug/lib/solaris-amd64-32 \ -L/local/henry/petsc-2.3.0-debug/lib/solaris-amd64-32 \ -I/local/henry/petsc-2.3.0-debug/include \ -I/local/henry/petsc-2.3.0-debug/bmake/solaris-amd64-32 \ -lpetscvec -lpetsc \ -xlic_lib=sunperf nemo-henry% mpirun -np 4 ex1 Vector length 20 Vector length 20 40 60 All other values should be near zero VecScale 0 VecCopy 0 VecAXPY 0 VecAYPX 0 VecSwap 0 VecSwap 0 VecWAXPY 0 VecPointwiseMult 0 VecPointwiseDivide 0 VecMAXPY 0 0 0
Utilisation de (Sun) MPI (HPC6.0)
Aide
Sun HPC est une implémentation de MPI 1 et 2 par Sun. Il semble aujourd'hui que Sun se rallie à OpenMPI, en fournissant HPC7.0
Lorsqu'on utilise ces produits, on peut trouver de la documentation et du support communautaire:
mode batch
at -m now mprun -np <nb-proc> <executable> <parametre executable>
- on fait : “mpps -Ae” pour vérifier que le job est bien parti
Commandes utiles pour lancer des jobs
Commande | Action |
---|---|
mpps -Ae | Liste les process parallèles de toutes les machines parallèles |
mpps -Aep | Liste les process parallèles de toutes les machines parallèles, mais avec le nom des noeuds utilisés |
mpkill cre.xxxx | A faire sur le serveur HPC où tourne le job : arrête le programme |
mpkill -KILL cre.xxxx | id. |
mpkill -C jobid | Uniquement root peut faire cette commande. |
Debugger TotalView
Installé sur nemo, c'est une version beta, expire le 25 juin 06.
Pour le lancer, taper simplement: totalview
La documentation est ici:Etnus