wiki:FermeLocale

Machines communes

Serveurs de calcul

Des serveurs de calcul sont mis à la disposition des utilisateurs du LPSC. Certains sont réservés à l'usage de groupe alors que d'autres sont à usage général. La liste de ces serveurs et leur fonction est donnée sur la page ServeursLpsc. Pour se logger sur ces serveurs, utilisez vos login et mot de passe habituels.

Ferme de machines communes

Le LPSC est doté d'une ferme de machines communes locales, dénommées lpsc-c*. Ces machines ont été installées dans 3 pools de versions différentes de Linux : Centos7 , Fedora30 et !AlmaLinux9. Chaque pool est composé de machines installées de façon identique (via les logiciels QUATTOR et Ansible). Toutes mises à jour ou ajouts de paquets sur une machine seront répercutés sur toutes les machines de chaque pool.

Notre ferme de calcul locale est composée des machines suivantes :

  • lpsc-c0 : un poweredge 1950 à 24 processeurs et 94 Go RAM en Centos
  • lpsc-c8 : un poweredge R620 à 32 processeurs et 125 Go de RAM en Centos
  • lpsc-c12 et lpsc-c13 : deux poweredge R610 à 24 processeurs et 96 Go de RAM en Fedora
  • lpsc-c14 et lpsc-c15 : deux poweredge R640 à 48 processeurs et 256 Go de RAM en Fedora
  • lpsc-c16 à lpsc-c19 : quatre powerEdge C6420 à 48 processeurs et 128 Go de RAM en AlmaLinux
  • lpsc-c20 à lpsc-c28 : neuf powerEdge C6420 à 40 processeurs et 128 Go de RAM en AlmaLinux

L'accès à ces machines s'effectue par ssh -X avec votre login/mot de passe habituel. Ces machines doivent être utilisés en batch (HT-Condor).

Seulement 4 machines sont accessibles en interactif . Ce sont les machines de soumission de jobs pour HT-Condor .

lpsc-batch-almalinux (lpsc-c28) et lpsc-batch-almalinux2 (lpsc-c16) (AlmaLinux release 9.2) lpsc-batch-fedora (lpsc-c13) (Fedora 39) lpsc-batch-centos7 (lpsc-c8) (CentOS Linux release 7.4)

Monitoring disponible sur https://lpsc-zabbix.in2p3.fr

Sur toutes ces machines, voilci les applications recommandées pour les différents types de fichiers (n'hésitez pas à nous contacter pour agrandir cette liste) :

  • images => display
  • pdf => evince
  • texte => vi, emacs, gedit, nedit

Pour toutes ces machines, certains logiciels sont utilisables quelque soit le pool utilisé :

  • Matlab est installé dans /utils/MATLAB/latest. Il existe d'autres versions de ce logiciel dans /utils/MATLAB.
  • IDL (logiciel d’analyse et visualization de données ) version 8.8.2 est installé dans /usr/local/harris. Il existe d'autres versions de ce logiciel dans /utils/IDL.
  • PGI Portland Group (NVIDIA HPC SDK): Pour avoir accés aux différents compilateurs, il faudra modifier votre variable PATH (PATH=/opt/nvidia/hpc_sdk/Linux_x86_64/22.5/compilers/bin:$PATH; export PATH)

Pour les Fedora lpsc-c15 et lpsc-c14 , $ export PATH=/opt/nvidia/hpc_sdk/Linux_x86_64/24.1/compilers/bin:$PATH

IMPORTANT :

Pour toutes les machines, CVMFS est installé et vous permet d'utiliser toutes les releases de logiciels du CERN. ATTENTION cela ne fonctionne qu'en bash, pas en tcsh. Pour cela, vous devez exécuter :

export ATLAS_LOCAL_ROOT_BASE=/cvmfs/atlas.cern.ch/repo/ATLASLocalRootBase
source $ATLAS_LOCAL_ROOT_BASE/user/atlasLocalSetup.sh

Par exemple pour connaitre toutes les versions de gcc disponibles :

showVersions gcc

Pour utiliser la version 6.200 de gcc :

lsetup  "gcc gcc620_x86_64_slc6"

La même méthode peut être utilisée pour choisir une version de root.

Utilisation de MPI sur la ferme locale

En premier vous devez ajouter /opt/mpich-1.2.7p1/bin à votre PATH.

Essayer ensuite de d'utiliser un des deux codes d'exemple suivants (en fonction du language désiré) :

c  Fortran example  
      program hello
      include 'mpif.h'
      integer rank, size, ierror, tag, status(MPI_STATUS_SIZE)
   
      call MPI_INIT(ierror)
      call MPI_COMM_SIZE(MPI_COMM_WORLD, size, ierror)
      call MPI_COMM_RANK(MPI_COMM_WORLD, rank, ierror)
      print*, 'node', rank, ': Hello world'
      call MPI_FINALIZE(ierror)
      end

ou

#include <stdio.h>
#include <mpi.h>

int main(int argc, char** argv){
  int rank, size;

  MPI_Init (&argc, &argv);	/* starts MPI */
  MPI_Comm_rank (MPI_COMM_WORLD, &rank);	/* get current process id */
  MPI_Comm_size (MPI_COMM_WORLD, &size);	/* get number of processes */
  char processor_name[MPI_MAX_PROCESSOR_NAME];
  int name_len;
  MPI_Get_processor_name(processor_name, &name_len);
  printf( "Hello world from process %d of %d executed on %s\n", rank, size, processor_name );
  MPI_Finalize();
  return 0;
}

Pour compiler : mpif77 code.f ou mpicc code.c

Pour exécuter : mpirun -np 4 a.out ( => lance sur 4 processeurs)

Lors de l'exécution, une connexion ssh sera effectuée sur chacun des noeuds. Afin de faciliter ces connexions, vous pouvez mettre au point une clé privée/publique, afin de ne pas toujours devoir saisir votre mot de passe.

De nombreuses options existent pour configurer le nombre de processeurs, les machines à utiliser, ... N'hésitez pas à lire l'aide de mpirun : mpirun -help.

Last modified 6 weeks ago Last modified on 11/10/2024 09:29:56
Note: See TracWiki for help on using the wiki.