[[FaqLpscToc]]
= Serveurs et Ferme locale de calcul =
== Serveurs de calcul ==
Des serveurs de calcul sont mis à la disposition des utilisateurs du LPSC. Certains sont réservés à l'usage de groupe alors que d'autres sont à usage général. La liste de ces serveurs et leur fonction est donnée sur la page [wiki:ServeursLpsc#Serveursdecalcul].
* Pour se logger sur ces serveurs, utilisez vos login et mot-de-passe habituels.
* Sur ces serveurs les applications sont installées dans `/utils`.
* Setup de ROOT (a data Analysis Framework) :
{{{
setenv ROOTSYS /utils/SLC4/ROOT/root_v5.28.00/root
setenv PATH $ROOTSYS/bin:$PATH
setenv LD_LIBRARY_PATH $ROOTSYS/lib
}}}
== Ferme locale ==
Le LPSC est doté d'une ferme de calcul locale. Les serveurs de calculs sont installés avec trois versions différentes Linux : SL6, Centos7 ou Fedora25. Les même logiciels sont installés sur tous les serveurs.
Pour les serveurs en SL6, voici la liste des logiciels installés (visible en interne seulement) :
{{{
#!html
}}}
Pour les serveurs en Centos7, voici la liste des logiciels installés (visible en interne seulement) : pour bientôt
Pour les serveurs en Fedora, voici la liste des logiciels installés (visible en interne seulement) : pour bientôt
L'accès à ces serveurs de calcul se fait par `ssh` avec votre login/mdp habituel. La liste de ces serveurs (`lpsc-c*`) est donnée sur la page [wiki:ServeursLpsc#Serveursdecalcul].
== Utilisation de MPI sur la ferme locale ==
En premier vous devez ajouter /opt/mpich-1.2.7p1/bin à votre PATH.
Essayer ensuite de d'utiliser un des deux codes d'exemple suivants (en fonction du language désiré) :
{{{
c Fortran example
program hello
include 'mpif.h'
integer rank, size, ierror, tag, status(MPI_STATUS_SIZE)
call MPI_INIT(ierror)
call MPI_COMM_SIZE(MPI_COMM_WORLD, size, ierror)
call MPI_COMM_RANK(MPI_COMM_WORLD, rank, ierror)
print*, 'node', rank, ': Hello world'
call MPI_FINALIZE(ierror)
end
}}}
ou
{{{
#include
#include
int main(int argc, char** argv){
int rank, size;
MPI_Init (&argc, &argv); /* starts MPI */
MPI_Comm_rank (MPI_COMM_WORLD, &rank); /* get current process id */
MPI_Comm_size (MPI_COMM_WORLD, &size); /* get number of processes */
char processor_name[MPI_MAX_PROCESSOR_NAME];
int name_len;
MPI_Get_processor_name(processor_name, &name_len);
printf( "Hello world from process %d of %d executed on %s\n", rank, size, processor_name );
MPI_Finalize();
return 0;
}
}}}
Pour compiler : mpif77 code.f ou mpicc code.c
Pour exécuter : mpirun -np 4 a.out ( => lance sur 4 processeurs)
Lors de l'exécution, une connexion ssh sera effectuée sur chacun des noeuds. Afin de faciliter ces connexions, vous pouvez mettre au point une clé privée/publique, afin de ne pas toujours devoir saisir votre mot de passe.
De nombreuses options existent pour configurer le nombre de processeurs, les machines à utiliser, ... N'hésitez pas à lire l'aide de mpirun : mpirun -help.