Fairouz Malek, Responsable Scientifique du Projet LCG-France
(Mise à jour : 20/12/2012)
Lors de la prise de données du LHC dans les années 2011 et 2012, les quatre expériences (ALICE, ATLAS, CMS, LHCb) ont enregistré chaque année près de 1010 collisions, ce dernier chiffre est comparable au nombre d’étoiles dans la Voie Lactée. Traiter les données ainsi accumulées, représente un véritable défi informatique autant pour les flux (de l’ordre du GigaOctets par seconde) que pour leur volume (plusieurs dizaines de PetaOctets chaque année). A tout instant, quelques milliers de chercheurs du monde entier solliciteront des ressources de calcul et de stockage pour analyser ces données. Pour faire face à ce défi, la solution du calcul distribué, ou grille de calcul, s’est imposée. Le principe de la grille W-LCG s’appuie sur des centres de calcul répartis dans le monde entier et qui sont organisés en réseau.
Lorsqu’une requête est formulée par un utilisateur à partir de l’un des nombreux points d’entrée du système, la grille de calcul établit l’identité de l’utilisateur, vérifie ses autorisations, recherche les sites disponibles et susceptibles de fournir les ressources requises, en termes de stockage, de capacité de calcul, de disponibilité des logiciels d’analyse… pour finalement satisfaire la requête de l’utilisateur sans que ce dernier ait à se soucier du détail du processus. La grille W-LCG est hiérarchisée en quatre niveaux, ou rangs, appelés « Tier ». L’appartenance à un rang donné fixe la nature et la qualité des services qu’un centre de calcul doit fournir. La quantité de ressources à fournir est à la discrétion des agences de financement selon un protocole d’accord rediscuté chaque année (MoU WLCG).
Pour traiter l’ensemble des données enregistrées par les expériences du LHC, les besoins en capacité de calcul atteints en 2012 sont de plus de 1 Million kHS06-heure/mois (plus de 2 million de jobs par jour ou l'équivalent de 500 000 ordinateurs de bureau modernes) et plus de 200 PB (1pétaoctet = 1015 octets ) de disk. Actuellement, la grille W-LCG compte près de 200 sites répartis sur 4 continents: 1Tier 0 (CERN); 11 Tier1 (1 Taiwan, 2 US, 1 CAN, 7 EU); 68 fédérations de Tier2.
Des réseaux haut débit, de 10 Goctets/s ou plus, spécialement conçus pour le LHC, LHCOPN (LHC Optical Private Network), connectent le centre Tier0 aux centres Tier1. Ils assurent le transit des données venant des expériences et des données de physique traitées à un taux de 800 Moctets/s. Les centres Tier2 sont connectés aux Tier1 par des réseaux de l’ordre du Goctet/s ou plus.
La France héberge l’un des 11 centres Tier1 de W-LCG au Centre de Calcul de l'IN2P3 à Villeurbanne (CC-IN2P3)et plusieurs sites de niveau Tier2 et Tier3 : Ile-de-France, Clermont-Ferrand, Lyon, Nantes, Annecy, Grenoble, Strasbourg, Marseille. La gestion de ces ressources, le fonctionnement, le financement et les relations avec W-LCG sont assurés par le projet LCG-France crée en 2004. A Grenoble, le site Tier2 sert les deux expériences LHC, ALICE et ATLAS.
Le CC-IN2P3, financé conjointement par l’IN2P3 du CNRS et l’IRFU du CEA, offre ses services et ressources aux quatre expériences du LHC à hauteur de 10% de l’effort mondial en CPU des Tier1. Le CC-IN2P3 héberge également un Tier2 et un Tier3 regroupés sous l’appellation de « ferme d’analyse » ou AF. Une partie des ressources des sites Tier2 hors CC-IN2P3 est également dédiée à l’analyse type Tier3 (end-user analysis). Un seul site, GRIF en Ile de France, est une fédération de plusieurs sites Tier2/Tier3. La contribution CPU relative de la France à l’effort mondial des Tier2 est voisine de 10%.
Plus de détails peuvent se trouver dans les divers sites webs de LCG :
- MoU W-LCG : http://wlcg.web.cern.ch/
- LCG-France : http://lcg.in2p3.fr/
- LPSC Tier2 Site
En accomplissant une étape de plus vers une modélisation unifiée de toutes les forces fondamentales, S. Glashow, S. Weinberg et A. Salam emboîtaient le pas de Newton, Maxwell, Einstein et beaucoup d'autres qui s'étaient inscrits dans leur élan vers une théorie s'appliquant partout qui corrobore l'observation que notre Univers est né d'un événement unique, compact et causal dans un espace homogène.
Dès lors la recherche en physique des particules n'a eu de cesse que de vérifier les prédictions de cette nouvelle théorie. Pour l'essentiel, les plus grands programmes (SPS, Tevatron, LEP, HERA, LHC ...) mirent le cap sur les nouveaux phénomènes : les courants neutres, les bosons W & Z et le boson de Higgs, Englert et Brout.
Aujourd'hui, ces phénomènes sont pratiquement tous devenus standard. Un boson de Higgs a été observé par deux expériences, dont ATLAS. L'étude de ses propriétés reste l'objectif principal du programme LHC.
Poussé dans ses retranchements aux énergies extrêmes, le modèle standard semble souffrir d'instabilité, de divergences de calcul. N'aurions-nous pas alors besoin d'une symétrie plus vaste afin d'éliminer ou d'adoucir la contribution de certains processus aux plus hautes énergies ? N'aurions-nous pas besoin de plus de particules élémentaires ? De partenaires supersymétriques aux constituants élémentaires actuels, dont l'un d'entre-eux au moins pourrait être stable et n'interagirait que faiblement avec la matière ordinaire ? S'il en est ainsi, nous pourrions observer sur ATLAS un boson de Higgs chargé qui du fait de sa masse se couplerait aisément avec un quark top.
En dépit de son extraordinaire potentiel de découverte, le LHC pourrait ne pas avoir toute la précision requise pour étudier en détails les modes de désintégration d'un boson de Higgs - même s'il le découvre. Le projet ILC (International Linear Collider) visera à pallier ces lacunes par des mesures de précision effectuées dans des collisions électron-positron à très haute luminosité entre 90 et 1000 GeV.