pelicans

Différences

Ci-dessous, les différences entre deux révisions de la page.

Lien vers cette vue comparative

Les deux révisions précédentes Révision précédente
Prochaine révision
Révision précédente
pelicans [2014/11/30 14:54] – [serveur judith] gerardpelicans [2017/08/25 09:56] (Version actuelle) – modification externe 127.0.0.1
Ligne 11: Ligne 11:
 [henry@judith ~]$ isis_run -h [henry@judith ~]$ isis_run -h
 </code> </code>
-  * FIXME: ajouter MPI, METIS, et java ? + 
-  * on peut lancer l'itnerface graphique xisis+  * on peut lancer l'itnerface graphique **xisis**
   * pour accéder au tutoriel depuis xisis, aller dans Preferences, pdf-open, et remplacer acroread par evince    * pour accéder au tutoriel depuis xisis, aller dans Preferences, pdf-open, et remplacer acroread par evince 
  
Ligne 25: Ligne 25:
   * modifier Makefile.in   * modifier Makefile.in
   * /local/apps/metis-4.0.3   * /local/apps/metis-4.0.3
 +  * dans Lib/proto.h, on commente les déclarations de drand48, srand48 et ilog2 sinon pelicans/isis ne compilera pas
 +
 <code> <code>
 [devel1@judith ~/metis-4.0.3]$ make | & tee MAKE.LOG [devel1@judith ~/metis-4.0.3]$ make | & tee MAKE.LOG
 </code> </code>
  
-==== pelicans ====+==== pelicans sans metis ==== 
 + 
 +<code> 
 +[devel1@judith ~/isis-4.1.0]$ diff PELICANS/etc/extra-Linux.mak-ori PELICANS/etc/extra-Linux.mak 
 +10c10 
 +< WITH_MPI      = 0 
 +--- 
 +> WITH_MPI      = 1 
 +148c148 
 +< MPIRUN = /home/semar/pelican/ExternalPackages/Linux/openmpi/bin/mpirun 
 +--- 
 +> MPIRUN = /usr/lib64/openmpi/bin/mpirun 
 +155,156c155,156 
 +< CPPFLAGS += -I$(MPIPATH)/include 
 +< MPIPATH   = $(EXTRA_LIBS_DIR)/openmpi 
 +--- 
 +> CPPFLAGS += -I/usr/include/openmpi-x86_64 -I$(MPIPATH)/include 
 +> MPIPATH   = /usr/lib64/openmpi 
 +</code> 
 + 
 +<code> 
 +[devel1@judith ~/isis-4.1.0]$ make install | & tee INSTALL.LOG                   
 +... 
 + 
 +-------------------------------------------------- 
 +| Test is successful 
 +-------------------------------------------------- 
 + 
 +************************************************** 
 +* number of successful tests: 214 
 +* number of  ambiguous tests: 0 
 +* number of    failing tests: 0 
 +************************************************** 
 + 
 +*** Elapsed time in second:  
 +user 0.084841 
 + 
 + 
 +**** 
 +* target test_install completed 
 +**************************************** 
 +make[1]: Leaving directory `/local/apps/isis-4.1.0/ISIS' 
 +</code> 
 + 
 +on passe les tests MPI 
 +<code> 
 +[devel1@judith ~/isis-4.1.0]$ source /local/apps/isis-4.1.0/bin/init.csh 
 +[devel1@judith ~/isis-4.1.0]$ make test_MPI 
 +... 
 +**************************************** 
 +make[1]: Leaving directory `/local/apps/isis-4.1.0/ISIS' 
 +================================================================================= 
 +          Test MPI 
 +================================================================================= 
 + 
 +*** Operating system: Linux 
 + 
 +*** Executable: /local/apps/isis-4.1.0/ISIS/lib/Linux-gcc/opt0.exe 
 + 
 +*** Data file: /local/apps/isis-4.1.0/PELICANS/etc/ExternalAPI/MPI/tests_enabling/data.pel 
 + 
 +*** PELICANS library 
 +       compiler          : gcc 
 +       compilation date  : Nov 29 2014 
 +       compilation level : opt0 
 + 
 + 
 +---------------------------------------------------- 
 +|  Unit tests performed on class PEL_Expression : 
 +==================================================== 
 +| ...                   MPI_enabling_test kind :  OK 
 +| ...             MPI_enabling_test evaluation :  OK 
 +==================================================== 
 +|  End of 2 tests of class PEL_Expression in 2.4e-05 s  
 +---------------------------------------------------- 
 + 
 +---- Success of all unit tests ----  
 + 
 +*** Elapsed time in second:  
 +user 0.00017 
 +</code> 
 + 
 +==== pelicans avec metis ====
  
 <code> <code>
Ligne 57: Ligne 141:
 </code> </code>
  
 +et on lance la compilation
 +<code>
 +[devel1@judith ~/isis-4.1.0]$ make install | & tee INSTALL.LOG
 +=================================================================================
 +          Configuration file
 +=================================================================================
 + 
 +Hostname: judith.cmi.univ-mrs.fr 
 +Compiler: gcc
 +Architecture-Makefile searched in:
 +   /local/apps/isis-4.1.0/PELICANS/etc
 +           judith.cmi.univ-mrs.fr-gcc
 +           judith.cmi.univ-mrs.fr-undef
 +           Linux_3.10.0-gcc
 +        *  Linux-gcc    /local/apps/isis-4.1.0/PELICANS/etc/Linux-gcc.mak
 +           undef-gcc
 +           Linux_3.10.0-undef
 +           Linux-undef
 +Extra-Makefile searched in:
 +   /local/apps/isis-4.1.0/PELICANS/etc
 +           judith.cmi.univ-mrs.fr-gcc
 +           judith.cmi.univ-mrs.fr-undef
 +           Linux_3.10.0-gcc
 +           Linux-gcc
 +           undef-gcc
 +           Linux_3.10.0-undef
 +        *  Linux-undef  /local/apps/isis-4.1.0/PELICANS/etc/extra-Linux.mak
 +Compiler Architecture name: Linux-gcc
  
 +External libraries:
 +   MPI: enabled
 +   JAVA: disabled
 +   METIS: enabled
 +=================================================================================
 +          Installing PELICANS, level=opt0
 +=================================================================================
 +...
 +| Test is successful
 +--------------------------------------------------
 +--------------------------------------------------
 +| ISIS/IHM/samples/WallConduction/DoRun
 +--------------------------------------------------
 +| Test is successful
 +--------------------------------------------------
 +
 +**************************************************
 +* number of successful tests: 214
 +* number of  ambiguous tests: 0
 +* number of    failing tests: 0
 +**************************************************
 +
 +*** Elapsed time in second: 
 +user 0.068729
 +
 +
 +****
 +* target test_install completed
 +****************************************
 +make[1]: Leaving directory `/local/apps/isis-4.1.0/ISIS'
 +</code>
 +
 +==== Test parallèle (tutorial) ====
 +on modifie le data.pel, comme indiqué dans le tutorial (p72):
 +<code>
 +[ghenry@holopherne RoomFire]$ grep parallel *.pel
 +data.pel:execution_mode="parallel"
 +[ghenry@holopherne RoomFire]$ grep splitt *.pel
 +data.pel:splitting_strategy="METIS"
 +</code>
 +et on lance le calcul, sur une machine qui a 30 slots (CentOS 7, openmpi openmpi-1.6.4-3):
 +<code>
 +[ghenry@holopherne RoomFire]$ which mpirun
 +/usr/lib64/openmpi/bin/mpirun
 +</code>
 +
 +<code>
 +[ghenry@holopherne RoomFire]$ isis_run data.pel resu -np 2
 +Process #0 : launched on holopherne.cmi.univ-mrs.fr (79758).
 +Process #1 : launched on holopherne.cmi.univ-mrs.fr (79759).
 +Process #1 : terminated.
 +Process #0 : terminated.
 +Process #0 : launched on holopherne.cmi.univ-mrs.fr (79766).
 +Process #1 : launched on holopherne.cmi.univ-mrs.fr (79767).
 +terminate called after throwing an instance of 'PEL_Exceptions::InternalError'
 +--------------------------------------------------------------------------
 +mpirun noticed that process rank 1 with PID 79767 on node holopherne.cmi.univ-mrs.fr exited on signal 11 (Segmentation fault).
 +--------------------------------------------------------------------------
 +</code>
 +ce bug est dû à une mauvaise version du fichier ''CALIFS/packages/simulators/heat_transfer/src/IS_Enthalpy.cc''. On le remplace, puis:
 +<code>
 +make APPLI0
 +</code>
 +et ça passe
 ====== pelicans ====== ====== pelicans ======
  
  • pelicans.txt
  • Dernière modification : 2017/08/25 09:56
  • de 127.0.0.1