127 | | * Ligne 7 : On limite le nombre d'event a 100 par jobs pour ce test |
128 | | * Ligne 8 : Les données en entrées sont un dataset gérer par DQ2 |
129 | | * Ligne 9 : Le LDN de ce dataset est défini ici |
130 | | * Ligne 10 : Les données en sortie seront placées dans un dataset |
131 | | * Ligne 11 : Base du nom des fichiers dans le dataset de sortie (voir plus haut) |
132 | | * Ligne 12 : Création du gestionnaire qui va gérer le "splittage" du job en subjobs en fonction des fichiers présent dans le dataset en entrée. |
133 | | * Ligne 13 : Nombre de subjobs |
134 | | * Ligne 14 : Nombre de fichiers par subjobs |
135 | | * Ligne 15 : ... Sans objet ici |
136 | | * Ligne 16 : backend utilisé |
137 | | * Ligne 17 : Création de l'objet gestionnaire des requirements sur le backend. (Cela va permettre à GANGA de trouver l'endroit le plus approprié pour exécuter le job) |
| 127 | * Ligne 7 : Le fichier TopAnalysisDPD.py est inclus dans RunTopAnalysisDPD.py, il est déclaré dans la inputsandbox. |
| 128 | * Ligne 8 : On limite le nombre d'event a 100 par jobs pour ce test |
| 129 | * Ligne 9 : Les données en entrées sont un dataset gérer par DQ2 |
| 130 | * Ligne 10 : Le LDN de ce dataset est défini ici |
| 131 | * Ligne 11 : Les données en sortie seront placées dans un dataset |
| 132 | * Ligne 12 : Base du nom des fichiers dans le dataset de sortie (voir plus haut) |
| 133 | * Ligne 13 : Création du gestionnaire qui va gérer le "splittage" du job en subjobs en fonction des fichiers présent dans le dataset en entrée. |
| 134 | * Ligne 14 : Nombre de subjobs |
| 135 | * Ligne 15 : Nombre de fichiers par subjobs |
| 136 | * Ligne 16 : ... Sans objet ici |
| 137 | * Ligne 17 : backend utilisé |
| 138 | * Ligne 18 : Création de l'objet gestionnaire des requirements sur le backend. (Cela va permettre à GANGA de trouver l'endroit le plus approprié pour exécuter le job) |