Pensebête

 Setup

Mettre dans .login

export ATLAS_LOCAL_ROOT_BASE=/cvmfs/atlas.cern.ch/repo/ATLASLocalRootBase

alias setupATLAS='source ${ATLAS_LOCAL_ROOT_BASE}/user/atlasLocalSetup.sh'

Sur lxplus, faire directement setupATLAS

Rucio

  • Accès via WebdaV (curl ou browser)
curl -O -L --capath /etc/grid-security/certificates/ --cacert $X509_USER_PROXY --cert $X509_USER_PROXYhttps://voatlasrucio-redirect-prod-01.cern.ch/redirect/mc12_8TeV/AOD.01303199._000003.pool.root.1?select=geoip
  •  Nom du dataset avec l'adresse surl ou guid

dq2-list-parent-datasets 334e0b0f-6c57-4cc3-8b3f-b541aabc6939
dq2-list-parent-datasets srm://lapp-se01.in2p3.fr/dpm/in2p3.fr/home/atlas/atlasdatadisk/rucio/mc12_8TeV/ba/45/NTUP_SUSY.01487259._000001.root.1 ne fonctionne pas ?

 

Connection à la VObox

    • Production MC

lcg_env
voms-proxy-init -voms atlas:/atlas/Role=production -valid 96:0
gsissh -p 1975 cclcgatlas04
le login doit être atlassgm
    • Queues d'analyse

lcg_env
voms-proxy-init -voms atlas:/atlas/Role=pilot -valid 96:0
gsissh -p 1976 cclcgatlas04 (ou si déjà sur la machine taper atlasana -alias-)

 

New  (01 et 05) VObox configs

    • Condor

      • the condor log file is in /var/log/condor

      • condor deamon restarts with sudo /etc/init.d/condor restart

    • APF SVN and configuration files

      • the factory configuration files are under the : svn co svn+ssh://svn.in2p3.fr/atlas/ccin2p3/panda_new 

      • in pilot configuration file, local path for the log :

      • Also the variable analysisGridProxy ( GridProxy appears) for analysis file (production files) , only ones appears in the configuration files under the section [QueueDefaults] and points the corresponding proxy files e.g : analysisGridProxy = /opt/vobox/atlasana/atlas/proxy_repository/x509_atlasana

      • on each account atlassgm atlasana atlasfr we start the apf as previous cd /vo/atlas/panda_new ; sh Submit_pilots analysis

    • CronJobs

      • One each account we setup three cronjobs

        • 01 */6 * * * /bin/bash /vo/atlas/panda_new/Submit_pilots production ( periodic submit of the factory)

        • 30 1 * * * export PANDAC=/vo/atlas/panda_new ;python $PANDAC/current/bin/cleanLogs.py --conf=$PANDAC/factory_production.conf --verbose –delete=3 ( cleaning of old log file)

        • 40 1 * * * /vo/atlas/panda_new/clean_factory_logs.sh production ( cleaning of old factory's logs )

 

Renouvellement du proxy

    • Production avec certificat robot sur nouvelles vobox (utiliser prod pour ana prod et t3) - doc Manoulis : squad/doc/opsatlasvobox_draft_v1.odt -

==> sur ccage :
avec le certif robot (changer lien dans .globus)
lcg_env
voms-proxy-init -voms atlas:/Role=production -valid 99:00
voms-proxy-info -all
myproxy-init -s myproxy.cern.ch -d -n -c 0 -t 96
sauvegarder le certif /tmp/x509up_xxx dans x509up_xxx-robot et vérifier chmod 600
voms-proxy-destroy

avec le certif perso (changer lien ds .globus)
voms-proxy-init -voms atlas:/Role=production -valid 99:00
voms-proxy-info -all


gsissh -p 1975 ccwlcgatlas02


scp crepe@ccali:x509up_xxx-robot /tmp/.
et vérifier chmod 600 x509up_u629-robot
export X509_USER_PROXY=/tmp/x509up_xxx-robot
voms-proxy-info

puis (! mail)
vobox-proxy --vo atlas --dn "/DC=ch/DC=cern/OU=Organic Units/OU=Users/CN=atlasfr1/CN=445173/CN=Robot: ATLAS Fr Factory 1" --voms atlas:/atlas/Role=production --lifetime 96:00 --proxy-safe 3600 --myproxy-safe 259200 --email This email address is being protected from spambots. You need JavaScript enabled to view it.mail@squad register
cd /vo/atlas/apfv2/new_reg

vérifier que le fichier renewal_user contient le bon DN :
USER_DN="/DC=ch/DC=cern/OU=Organic Units/OU=Users/CN=atlasfr1/CN=445173/CN=Robot: ATLAS Fr Factory 1"
USER_MAIL="This email address is being protected from spambots. You need JavaScript enabled to view it."

Vieille commande ? ./register_new_renewer_ev.shvobox-proxy –vo atlas– dn all query

/vo/atlas/apfv2/new_reg/multi_register_ev.sh
    • Autres commandes utiles

desenregistrer un proxy :
vobox-proxy --vo atlas --dn "/O=GRID-FR/C=FR/O=CNRS/OU=CPPM/CN=Emmanuel Le Guirriec" unregister
desenregistrer tous les proxy :
vobox-proxy --dn all --vo atlas --force unregister
voir les certificats enregistrés :
vobox-proxy -vo atlas -dn all query voir les proxy du server CERN myproxy-info -v -d

 

Renouveler un certificat robot

Suivre le lien CERN lorsque le certificat a expiré (https://gridca.cern.ch/gridca/) : ! se connecter avec le vieux certifcat robot !

Récupérer le certificat (atlasfr1.p12)

Dans .globus

openssl pkcs12 -nocerts  -in atlasfr1.p12 -out userkey.pem
openssl pkcs12 -clcerts -nokeys -in atlasfr1.p12 -out usercert.pem
chmod 400 userkey.pem
chmod 440 usercert.pem

Se connecter sur ccage

Utiliser le certificat robot défini ci-dessus

lcg_env
export GT_PROXY_MODE=rfc
voms-proxy-init -rfc -voms atlas
run myproxy-info -dn -v (allow to see validity time)
myproxy-init -s myproxy.cern.ch -d -n -t 96 -c 6000
myproxy-info -d -v

La vobox doit se mettre à jour tte seule... (mail Manoulis 31/01/2015)

 

Récupérer un certificat robot


Quelques remarques :
Pour (re)créer un certificat, il faut se logger à https://gridca.cern.ch/gridca/ avec le service account (nom : atlasfr1 et pwd) et non pas par certificat
Puis clicker sur "New robot certificate" et suivre les indications
Pour générer le "Base-64-encoded certificate request", se connecter avec le service account atlasfr1 sur lxplus et faire
openssl req -new -out myrequest.csr -sha1
Cela génère 2 fichiers privkey.pem (il faut donner un mot de passe pour la key pem) et myrequest.csr (il ne faut pas remplir les item, faire entrée à chaque demande); Copier le contenu de myrequest.csr dans la fenêtre comme indiqué.
 
Récupérer le certificat (base 64 encoded) => newcert.cer et le copier sur lxplus ds le même répertoire que le fichier key
Sauvegarder le certificat sous forme pk12 avec
openssl pkcs12 -export -inkey privkey.pem -in newcert.cer -out atlasfr1.p12
il faut le mot de passe pem plus donner un pwd import/export
Générer le userkey et usercert.pem ds .globus :
Copier atlasfr1.p12 ds .globus et faire
openssl pkcs12 -nocerts  -in atlasfr1.p12 -out userkey.pem
openssl pkcs12 -clcerts -nokeys -in atlasfr1.p12 -out usercert.pem
chmod 400 userkey.pem
chmod 440 usercert.pem
 
Enregistrer le p12 ds le navigateur et répliquer les pem sur ccage
 

Autres commandes utiles

Vérification de la publication des CE : lcg-infosites --vo atlas voview | grep "\.fr" Vérification de la publication des tags : lcg-tags --ce cccreamceli05.in2p3.fr --vo atlas --list | less lcg-infosites -v2 --vo atlas ce | grep lpsc-ce.in2p3.fr
globus-job-run lpsc-ce.in2p3.fr:2119/jobmanager-pbs -q atlas /usr/bin/whoami
réponse sur cclcgatlas : atlp
globus-job-run lpsc-ce.in2p3.fr:2119/jobmanager-pbs -q atlas /bin/sh -c "id"
globus-job-run lpsc-ce.in2p3.fr:2119/jobmanager-pbs -q atlas /bin/hostname

globus-job-submit : soumet en batch (-s script)
globus-job-status avec l'url donné précédemment
globus-job-get-output
Jobs factory en queue :
condor_q -globus
condor_q -const 'GridResource=="cream cccreamceli05.in2p3.fr:8443/ce-cream/services/CREAM2 sge medium"' pour les creamce
condor_q atlasana -const 'GridResource=="cream cccreamceli05.in2p3.fr:8443/ce-cream/services/CREAM2 sge long"'

 

Changer le statut des queues

> setupATLAS (ou source cvmfs)
> voms-proxy-init
> récupérer le path et le nom de la queue ds le conf (pas besoin au moins sur lxplus)
> curl --capath $X509_CERT_DIR --cacert $X509_USER_PROXY --cert $X509_USER_PROXY "https://panda.cern.ch:25943/server/controller/query?tpmes=$status&queue=$queue&moduser=ShifterName&comment=$comment"
 
> ex : curl --capath $X509_CERT_DIR --cacert $X509_USER_PROXY --cert $X509_USER_PROXY "https://panda.cern.ch:25943/server/controller/query?tpmes=settest&queue=ANALY_ROMANIA02&comment=HC.Test.Me"   ou voir script "setqueuestatus" sur lxplus après avoir lancé EMI (avec CVMFS) => ne fonctionne plus ?  
 
> Vieille commande : atlassgm@cclcgatlas04/~/crepe$ curl -k --cert /tmp/x509up_p1901.file1zzv32.1 'https://voatlas19.cern.ch:25843/server/pandamon/query?tpmes=setmanual&queue=BEIJING-LCG2-lcg002-atlas-lcgpbs&moduser=SabineCrepe&comment=Elogxxx'

 

Changer le statut des spacetoken

> dq2-set-location-status -e GRIF-LAL_DATADISK -p dfrwu -s auto -r 'https://savannah.cern.ch/support/index.php?130348'
> dq2-set-location-status -e GRIF-LAL_PRODDISK -p dfrwu -s auto -r 'https://savannah.cern.ch/support/index.php?130348'
> dq2-set-location-status -e GRIF-LAL_SCRATCHDISK -p dfrwu -s auto -r 'https://savannah.cern.ch/support/index.php?130348'
> dq2-set-location-status -e GRIF-LAL_HOTDISK -p dfrwu -s auto -r 'https://savannah.cern.ch/support/index.php?130348'
> dq2-set-location-status -e GRIF-LAL_PHYS-SUSY -p dfrwu -s auto -r 'https://savannah.cern.ch/support/index.php?130348'
> dq2-set-location-status -e GRIF-LAL_LOCALGROUPDISK -p dfrwu -s auto -r 'https://savannah.cern.ch/support/index.php?130348'

 

Espace dans les spacetoken

> voms-proxy-init -voms atlas:/atlas/Role=pro
> lcg-stmd -b -s ATLASPRODDISK -e httpg://lpsc-se-dpm-server.in2p3.fr:8446/srm/managerv2duction -valid 96:
> lcg-stmd -b -s ATLASDATADISK -e httpg://lpsc-se-dpm-server.in2p3.fr:8446
+ Space Token: 932c5e8c-f718-4e9b-a996-647338e74645
  - Owner: atlas/Role=production
  - Total Size: 388127604604928
  - Guaranteed Size: 388127604604928
  - Unused Size: 1246504732388
  - Assigned Lifetime: 166822645
  - Left Lifetime: -1
  - Retention Policy: CUSTODIAL
  - Access Latency: ONLINE
 

 Notes :

- Limite d'espace libre pour blacklister un spacetoken : 5TB

- Limite d'espace libre pour arrêter les transferts FTS : 1TB

Il peut y avoir dans le buffer des transferts > à ces limites d'où des erreurs de transfert à la marge ...

 

Fichiers perdus ?

voms-proxy-init -voms atlas

> dq2-list-dataset-replicas nom_dataset
INCOMPLETE: SITEXXXX_AAAADISK
COMPLETE: SITEYYYY_BBBBDISK, SITEZZZZ_CCCCDISK

> dq2-list-files nom_dataset | grep nom_fichier FILENAME GUID CHECKSUM FILESIZE
ou
> dq2-ls -f nom_dataset | grep nom_fichier [*] FILENAME GUID CHECKSUM FILESIZE
si [ ], le fichier n'existe pas
> dq2-ls -L SITEYYYY_BBBBDISK -fp "nom_dataset" | grep nom_fichier srm://xxxxx/dpm/lal.in2p3.fr/home/atlas/atlasscratchdisk/yyyyy/nom_dataset/nom_fichier
> lcg-cp --vo atlas srm://xxxxx/dpm/lal.in2p3.fr/home/atlas/atlasscratchdisk/yyyyy/nom_dataset/nom_fichier local.file [SE][Ls][SRM_INVALID_PATH]
No such file or directory lcg_cp: No such file or directory

Declarer le fichier perdu :

    • Documentation : page DDM
    • Créer un ticket JIRA ds DDMOPS avec la liste des fichiers en attaché (j'ai mis type=support et ajouté après la soumission le mel frcloudsupport au watchers)
    • Déclarer les fichiers en utilisant le script python declareFiles.py

> cat listsrmfile.txt | python declareFiles.py -b -r "files lost due to dpm disk problem JIRA ATLDDMOPS-4735" - > & out.txt &   !!! NE PAS OUBLIER LE "-" A LA FIN

> source listsrmfile.txt >& out.txt & fonctionne aussi en ajoutant devant chaque adresse srm :  python declareFiles.py -b -r "files lost due to dpm disk problem JIRA ATLDDMOPS-4735"

 

Tests LFC

export CSEC_TRACE=3
export LFC_HOST=<LFC_HOST> ## the host name you see in the error message of dq2
lfc-ping
lfc-ls /grid/atlas

 

Tests grid certificates

export ATLAS_LOCAL_ROOT_BASE=/cvmfs/atlas.cern.ch/repo/ATLASLocalRootBase
alias setupATLAS='source ${ATLAS_LOCAL_ROOT_BASE}/user/atlasLocalSetup.sh'
setupATLAS
diagnostics
gridCert

 

Récupérer l'adresse physique d'un fichier

voms-proxy-init -voms atlas
> dq2-list-dataset-replicas nom_dataset
   INCOMPLETE: SITEXXXX_AAAADISK
    COMPLETE: SITEYYYY_BBBBDISK, SITEZZZZ_CCCCDISK
> dq2-ls -f -L SITEYYYY_BBBBDISK nom_dataset | grep nom_fichier [*] FILENAME GUID CHECKSUM FILESIZE
si [X] le fichier existe

> dq2-ls -f -p -L SITEYYYY_BBBBDISK nom_dataset | grep nom_fichier [*] FILENAME GUID CHECKSUM FILESIZE
> adresse srm : srm://lpsc-se-dpm-server.in2p3.fr/dpm/in2p3.fr/home/atlas/atlasdatadisk/mc10_7TeV/EVNT/e760/mc1blabla
> lcg-gt srm://lpsc-se-dpm-server.in2p3.fr/dpm/in2p3.fr/home/atlas/atlasdatadisk/mc10_7TeV/EVNT/e760/mc1blabla gsiftp
gsiftp://lpsc-se-dpm-disk7.in2p3.fr/lpsc-se-dpm-disk7.in2p3.fr:/disk7-7/atlas/2011-10-30/EVNTblabla

 

Effacer un dataset récalcitrant

Sur lxplus, après env grille : Récupérer les surl des fichiers
> dq2-ls -fp -L SITE_XXXDISK 'dataset' > list.txt
Get the lfc host for the site
> /afs/cern.ch/atlas/offline/external/GRID/ddm/Operations/dq2-get-site-lfc DQ2-SITE
Set LFC_HOST
> export LFC_HOST=...
Delete the replica on the problematic site only
> lcg-del surl
Force consistency check of the dataset at the site (so that DDM realises that a file was removed on this site)
> dq2-check-replica-consistency DATASET SITE
Resubscribe the dataset to the site
> dq2-register-subscription DATASET SITE

 

Liste des datasets ds un site

 

> dq2-list-dataset-site2 -e -0 IN2P3-LPSC_LOCALGROUPDISK > & lpsclocal.txt &
  -u pour inutilisé depuis 30 jours
  -u -p 500 non utilisé depuis 500 jours
ou
> dq2-list-dataset-site IN2P3-LPSC_LOCALGROUPDISK > & lpsclocal.txt &
Possesseur du dataset :
> dq2-get-replica-metadata <dataset-name> UNI-BONN_LOCALGROUPDISK

 

Remplissage d'un spacetoken

lcg-stmd -b -s ATLASDATADISK -e httpg://ccsrm.in2p3.fr:8443/srm/managerv2
+ Space Token: 164
  - Owner: VoGroup=/atlas VoRole=production
  - Total Size: 4377155790176256
  - Guaranteed Size: 4377155790176256
  - Unused Size: 40375726109515
  - Assigned Lifetime: -1
  - Left Lifetime: -1
  - Retention Policy: REPLICA
  - Access Latency: ONLINE

 

Lancer des jobs de tests

Sur lxplus, env grille :
> source /afs/cern.ch/project/gd/LCG-share/current/etc/profile.d/grid_env.sh
> source /afs/cern.ch/atlas/offline/external/GRID/ddm/DQ2Clients/setup.zsh
> voms-proxy-init -voms atlas:/atlas/Role=production -valid 96:0
Lancer le job :
> cd panda/test Vérifier ds le joboption la release > export PYTHONPATH=..:$PYTHONPATH
> python testEvgen15.py NOMQUEUE FR

 

Ajouter une nouvelle queue panda dans AGIS

Exemple : nouvelle queue pour WN SL6

Aller sur la page AGIS

Définir une bouvelle ressource (nom de la queue dans panda)
  • Cliquer sur ATLASSite, chercher le site et cliquer sur le site
  • Cliquer sur PANDA
  • Dans le tableau qui s'ouvre, cliquer sur le nom du site dans la colonne PanDA site
  • Cliquer sur Add PANDA resource for this PANDA site et la définir

 Définir une nouvelle queue panda

  • À partir du site, cliquer sur PANDA, sous PANDA sur le nom du site, puis sur le nom de la ressource
  • Dans la partie droite, cliquer sur Define new PANDAQueue
  • Cloner une queue proche, ex non SL6
    • Pour une nouvelle queue SL6, changer localqueue et ce qui s'y rapporte ex jdl ou jdladd avec le nom de la queue fourni par le site
    • Créer la queue
  • Associer un CE (donné par le site) en cliquant à droite sur le nom du PANDAQueue name, puis sur 
    Find and associate another CE/Queue

Valider la queue

  • Mettre la queue en test
  • Demander de valider le soft (SL6) à atlas-grid-install
  • Demander d'ajouter la queue à la DB de hammercloud à atlas-adc-hammercloud-support

 

 

Vieille procédure : Modifier les paramètres panda dans ScheduleConfig

 

Sur lxplus : > cd schedconfig
> svn co svn+ssh://svn.cern.ch/reps/pandaconf/trunk pandaconf
> cd pandaconf/SchedConfigs/FR Ouvrir le fichier.py à mofifier, le modifier puis > svn ci -m "commentaire" fichier.py Si pas de -m, une fenetre s'ouvre pour entrer un commentaire

Pages web :

 

Modifier les paramètres panda directement

> curl -k --key $X509_USER_PROXY --cert $X509_USER_PROXY "https://panda.cern.ch:25943/server/controller/query?tpmes=setnqueue&nqueue=20&queue=IN2P3-CPPM-marcream02-atlas-pbs"

 

svn au CC

Sur ccali :
> cd atlas/grille/pandasvn
> svn co svn+ssh://This email address is being protected from spambots. You need JavaScript enabled to view it./atlas/ccin2p3/panda_new panda
> cd panda Ouvrir le fichier à mofifier, le modifier puis > svn ci -m "commentaire" fichier Si pas de -m, une fenetre s'ouvre pour entrer un commentaire ...
pour relancer la factory : dans /vo/atlas/panda_new/
analyse : sh Submit_pilots analysis
production : sh Submit_pilots production
analyse T3 : sh Submit_pilots analysis_T3
Pages web :
page mère

 

Restart condor

Sur une vobox :
> cd /vo/atlas/panda
> ./RestartCondor.sh

 

Rechercher les releases

 

Partage des travaux sur anasthasie

Sur ccali :
> qvarquery -s Share -objective atlas@anastasie -nof

 

Répertoires utiles

Logs pilots Central: /var/www/html/autopilot/logs/factory/production/terminal/
Par site : /var/www/html/autopilot/logs/factory/production/date/nomdusite
Factory : /vo/atlas/panda/factory/current/

 

 

États des jobs dans panda

There are 10 values in Panda describing different possible states of the jobs, these are:
  • defined : job-record inserted in PandaDB
  • assigned : dispatchDBlock is subscribed to site
  • waiting : input files are not ready
  • activated: waiting for pilot requests
  • sent : sent to a worker node
  • running : running on a worker node
  • holding : adding output files to DQ2 datasets
  • transferring : output files are moving from T2 to BNL
  • finished : completed successfully
  • failed : failed due to errors
The normal sequence of job-states is the following:
defined -> assigned -> activated -> sent -> running -> holding -> transferring -> finished/failed
If input files are not available: defined -> waiting then, when files are ready -> assigned -> activated And the workflow is:
  • defined -> assigned/waiting : automatic
  • assigned -> activated : received a callback for the dispatchDBlock. If jobs don't have input files, they get activated without a callback.
  • activated -> sent : sent the job to a pilot
  • sent -> running : the pilot received the job
  • waiting -> assigned : received a callback for the destinationDBlock of upstream jobs
  • running -> holding : received the final status report from the pilot
  • holding -> transfering : added the outout files to destinationDBlocks
  • transfering -> finished/failed : received callbacks for the destinationDBlocks
The job brokering for production is listed in PandaBrokerage#Special_brokerage_for_production
The delay for job rebrokering is listed in PandaBrokerage#Rebrokerage_policies_for_product

Vieilles procédures : Renouvellement du proxy

 

    • Analyse

 

==> sur ccali :
lcg_env
grid-proxy-init -valid 9999:00
voms-proxy-init -voms atlas:/Role=pilot -valid 99:00
voms-proxy-info -all
myproxy-init -s myproxy.cern.ch -d -n -c 0 -t 96
gsissh -p 1976 cclcgatlas04
vobox-proxy --vo atlas --dn "/O=GRID-FR/C=FR/O=CNRS/OU=LPSC/CN=Sabine Crepe-Renaudin" --voms atlas:/atlas/Role=pilot --lifetime 96:00 --proxy-safe 3600 --myproxy-safe 259200 --email mon@email register
source /vo/atlas/panda/Renewproxy_2011.sh

 

 

  • Production

 

==> sur ccali :
lcg_env
grid-proxy-init -valid 9999:00
voms-proxy-init -voms atlas:/Role=production -valid 99:00
voms-proxy-info -all
my proxy-init -s myproxy.cern.ch -d -n -c 0 -t 96
gsissh -p 1975 cclcgatlas03
vobox-proxy --vo atlas --dn "/O=GRID-FR/C=FR/O=CNRS/OU=LPSC/CN=Sabine Crepe-Renaudin" --voms atlas:/atlas/Role=production --lifetime 96:00 --proxy-safe 3600 --myproxy-safe 259200 --email mon@email register
source /vo/atlas/panda/Renewproxy_2011.sh

 

 

  • Vieille procédure

 

gsissh -p 1975 cclcgatlas04
vobox-proxy --vo atlas --dn "/O=GRID-FR/C=FR/O=CNRS/OU=LPSC/CN=Sabine Crepe-Renaudin" --voms atlas:/atlas/Role=production --life 96:00 --proxy-safe 3600 --myproxy-safe 259200 --email mon@email register
bash /vo/atlas/panda/Renewproxy_production.sh
/bin/bash /vo/atlas/panda/Submit_production
Si n'arrive pas (! bricolage) : enlever le old du dernier proxy et refaire le vobox proxy et il demande de remplacer le précédent ...
mv /opt/vobox/atlas/atlasana/proxy_repository/+2fO+3dGRID-FR+2fC+3dFR+2fO+3dCNRS+2fOU+3dLPSC+2fCN+3dSabine+20Crepe-Renaudinatlas+3a+2fatlas+2fRole+3dpilot.old /opt/vobox/atlas/atlasana/proxy_repository/+2fO+3dGRID-FR+2fC+3dFR+2fO+3dCNRS+2fOU+3dLPSC+2fCN+3dSabine+20Crepe-Renaudinatlas+3a+2fatlas+2fRole+3dpilot

 

 

  • Vérification

 

vobox-proxy -vo atlas -dn all query => to see which proxy are registered
myproxy-info -v -d : to see the status of ( long term proxy cert ) at server

 

 
  • Production avec certificat robot

==> sur ccali :
avec le certif robot (changer lien dans .globus)
lcg_env
grid-proxy-init -valid 9999:00 (still necessary ? old globus command ....)
voms-proxy-init -voms atlas:/Role=production -valid 99:00
voms-proxy-info -all
myproxy-init -s myproxy.cern.ch -d -n -c 0 -t 96
sauvegarder le certif /tmp/x509up_xxx dans x509up_xxx-robot et vérifier chmod 600
voms-proxy-destroy

avec le certif perso (changer lien ds .globus)
voms-proxy-init -voms atlas:/Role=pilot -valid 99:00
voms-proxy-info -all
gsissh -p 1975 cclcgatlas03
scp crepe@ccali:x509up_xxx-robotana /tmp/.
et vérifier chmod 600 x509up_u629-robotana
export X509_USER_PROXY=/tmp/x509up_xxx-robot
voms-proxy-info
vobox-proxy --vo atlas --dn "/DC=ch/DC=cern/OU=Organic Units/OU=Users/CN=atlasfr1/CN=445173/CN=Robot: ATLAS Fr Factory 1" --voms atlas:/atlas/Role=production --lifetime 96:00 --proxy-safe 3600 --myproxy-safe 259200 --email This email address is being protected from spambots. You need JavaScript enabled to view it.mail@squad register
register_new_renewer.sh squad@mail>
source /vo/atlas/panda/Renewproxy_2011.sh
rm /tmp/x509up_xxx-robotana

 

Vieux liens

Pensebête

Fenêtres Squad

Squad : fenêtre Elogs et tickets

 

Old Savannah

 

Squad : fenêtres Surveillance globales

 

Squad : fenêtres Surveillance transferts et données

 

Squad : fenêtres Surveillance travaux

 

Squad : fenêtres Surveillance sites

 

 

 

 

Squad : fenêtre gestion des queues

 

 
 
Surveillance de la production et de l'analyse
 
Sites de surveillance généraux

 

Configs

 

Surveillance Production et Analyse

 

Surveillance DDM

 

Test transferts et FTS

 

Sites de surveillance au CC

 

Surveillance des sites

 

Gestion des queues

 

Surveillance LPSC

 

Gestion des erreurs

 

Surveillance services

 

Info ATLAS

 
Sites monitoring

 

 
Documentation

 

 
Réunions