95 | | |
| 102 | {{{ |
| 103 | In [3]:j = Job() |
| 104 | In [4]:j.application=Athena() |
| 105 | In [5]:j.application.prepare(athena_compile=True) |
| 106 | In [6]:j.application.option_file="$HOME/testarea/14.2.20/TopAnalysis/run/TopAnalysisDPD2.py" |
| 107 | In [7]:j.application.max_events=100 |
| 108 | In [8]:j.inputdata=DQ2Dataset() |
| 109 | In [9]:j.inputdata.dataset="fdr08_run2.0052280.physics_Egamma.merge.AOD.o3_f8_m10" |
| 110 | In [10]:j.outputdata=DQ2OutputDataset() |
| 111 | In [11]:j.outputdata.outputdata=['TopAnalysisDPD.root'] |
| 112 | In [12]:j.splitter=DQ2JobSplitter() |
| 113 | In [13]:j.splitter.numsubjobs=6 |
| 114 | In [14]:j.splitter.numfiles=1 |
| 115 | In [15]:j.merger=AthenaOutputMerger() |
| 116 | In [16]:j.backend=LCG() |
| 117 | In [17]:j.backend.requirements=AtlasLCGRequirements() |
| 118 | In [18]:j.backend.requirements.sites=['IN2P3-LPSC_DATADISK'] |
| 119 | In [19]:j.submit() |
| 120 | }}} |
| 121 | |
| 122 | Cette suite d'instructions mérite quelques explications pour certaines lignes : |
| 123 | * Ligne 3 : Définition d'un objet job |
| 124 | * Ligne 4 : Nous allons utiliser athena |
| 125 | * Ligne 5 : Le package sera compilé sur le WN |
| 126 | * Ligne 6 : Emplacement du fichier joboptions |
| 127 | * Ligne 7 : On limite le nombre d'event a 100 par jobs pour ce test |
| 128 | * Ligne 8 : Les données en entrées sont un dataset gérer par DQ2 |
| 129 | * Ligne 9 : Le LDN de ce dataset est défini ici |
| 130 | * Ligne 10 : Les données en sortie seront placées dans un dataset |
| 131 | * Ligne 11 : Base du nom des fichiers dans le dataset de sortie (voir plus haut) |
| 132 | * Ligne 12 : Création du gestionnaire qui va gérer le "splittage" du job en subjobs en fonction des fichiers présent dans le dataset en entrée. |
| 133 | * Ligne 13 : Nombre de subjobs |
| 134 | * Ligne 14 : Nombre de fichiers par subjobs |
| 135 | * Ligne 15 : ... Sans objet ici |
| 136 | * Ligne 16 : backend utilisé |
| 137 | * Ligne 17 : Création de l'objet gestionnaire des requirements sur le backend. (Cela va permettre à GANGA de trouver l'endroit le plus approprié pour exécuter le job) |
| 138 | * Ligne 18 : Les données doivent être prises sur ce site |
| 139 | * Ligne 19 : Lancement du job |