COUVERTURE RA 2016 2018 

 

Publishing Committee 

Corinne BERAT

Christophe BERNARD

Dominique BONDOUX

Benjamin CHEYMOL

Sabine CREPE-RENAUDIN       

Denis DAUVERGNES

Pierre-Antoine DELSART

Colette DESLORIEUX

Laurent DEROME

Christophe FURGET

Véronique GHETTA

Denis GRONDIN

Daniel HEUER

Jean-Yves HOSTACHY

Ana LACOSTE

Thierry LAMY

Arnaud LUCOTTE

Juan MACIAS-PEREZ

Frédéric MELOT

Olivier MEPLAN

Dominique REBREYEND

Cécile RENAULT

William REGAIRAZ

Daniel SANTOS

Patrick STASSI

Anne STUTZ

Benjamin TROCME

Emmanuelle VERNAY

Christophe VESCOVI

Coordination

Christopher SMITH

 

Realisation

Audrey COLAS

Johanna PAQUIEN

GENESIS Facility Personnel

  • M. BAYLAC, Research engineer
  • A. BILLEBAUD, Director of Research, Scientific coordination 
  • B. CHEYMOL, Research engineer, Executive director
  • E. LABUSSIERE, Engineer
  • S. REY, Engineer
  • T. CABANEL, Assistant engineer

GEnerator of NEutrons for Science and IrradiationS

GENEPI2 highres

Crédits S.Maurin 2017

The facility evolution

Built in 2003 under the name "PEREN" for the needs of the LPSC reactor physics group, the facility was dedicated to nuclear data experiments required for inovative nuclear reactor research. It consisted at the beginning in the coupling of the pulsed neutron generator GENEPI2 (designed and built by the Acelerator group of LPSC) to a lead slowing-down time spectrometer, replaced later by graphite and Teflon massive blocks.

Since 2014 the facility went through several upgrades, among which the change for a continuous source is a major one. If offers now a higher beam intensity range and a better reliability. It hosts regularly private companies needing fast neutron for irradiations.

In 2016 the facility joined the IRT (Institut de Recherche Technologique) Nanoélec program.

At the end of  2017 the facility became the GENESIS facility, and is one of the 7 IN2P3 official research platforms.

The facility

schema GE2 us

The neutron source is provided by the GENEPI 2 electrostatic accelerator : it can deliver 220 keV deuterons, analyzed by a magnet and guided onto a deutered or tritiated target. Subsequent D(d,n)3He or T(d,n)4He reactions produce fast neutrons of 3.1 MeV or 15.2 MeV respectively (at 0° for 220 keV incident neutrons). The deuteron source is a continuous source (ECR compact source), allowing the creation of deuteron beams in the intensity range from 10 μA to 1 mA. Some typical present neutron productions are summed-up in the table below.

Continuous Source

En (0°)

Neutron source  max intensity (4π)

Neutron Flux at 1 cm, 0°

Tritium Target

15.19 MeV

~8x109 n/s

5x107 n.cm-2.s-1

Deuterium Target

3.09 MeV

(characterization in progress)

qq 105 n.cm-2.s-1

ddg GE2

To use the facility

The facility can accomodate on request experiments - from public or private laboratories - requiring fast neutrons with specifications as described above. The neutron source can used alone (empty room) or with moderators. The monitoring of the neutron source is ensured by the detection of charged particles associated to the neutron production.

The user schedule is defined over a period of 6 months, any application should be sent to the This email address is being protected from spambots. You need JavaScript enabled to view it..

The running rate, depending on your organisation, can be provided on request.

Facility managers :Maud Baylac/Benjamin Cheymol, Accelerator Group,+33 (0)4 76 28 41 12/45 05

Scientific coordinator : Annick Billebaud, Reactor Physics Group, +33 (0)4 76 28 40 57

Technical team : Solenne Rey, Accelerator Group, +33 (0)4 76 28 45 92

1. Introduction : le contexte 

La physique théorique a comme objectif la construction de modèles mathématiques aussi simples et complets que possible, capables de rendre compte d’un maximum de phénomènes physiques à partir d’un minimum de paramètres libres. En physique des particules, ces modèles décrivent les constituants élémentaires et leurs interactions. Dans ce contexte, le siècle dernier a vu l’avènement du Modèle Standard (MS), décrivant presque tous les processus connus en termes de juste 19 paramètres. Il laisse de côté l’interaction gravitationnelle, dont le traitement quantique nous échappe, mais reste le meilleur modèle disponible aujourd’hui. Bien sûr, le but ultime est d’inclure toutes les interactions au sein d’une seule théorie ayant peu ou pas de paramètres libres. Le fonctionnement de l’univers, du subatomique au cosmologique, découlerait alors entièrement de sa structure géométrique intime.

Au quotidien, face à l’ampleur et l’ambition de cet objectif, les théoriciens suivent deux axes de travail. Un premier angle d’attaque est de tester le MS, et d’estimer précisément ses paramètres libres. La théorie intervient car le lien entre paramètres fondamentaux et observables mesurées est indirect. L’établir nécessite l’évaluation de corrections quantiques, particulièrement complexes quand l’interaction forte joue un rôle. Par exemple, lorsque le LHC collisionne des protons, agrégats de quarks et de gluons, ce sont ces derniers qui interagissent. La mesure d’un paramètre fondamental nécessite donc de contrôler la distribution des constituants des protons.

Au lieu de tester le MS en espérant le prendre en défaut, la deuxième approche est de regarder directement au-delà. En effet, passer du MS à la théorie ultime, si elle existe, ne se fait probablement pas en une étape. Donc, partant des limitations du MS, les théoriciens cherchent à construire des modèles un peu plus simples ou complets. Par exemple, ils peuvent avoir moins de paramètres libres ou un meilleur comportement quantique, expliquer pourquoi les neutrinos sont si légers, de quoi est faite la matière noire, ou comment l’équilibre entre matière et antimatière s’est brisé après le Big Bang. Reste alors à vérifier si ce modèle passe les contraintes expérimentales actuelles, puis à analyser sa phénoménologie, entre autres aux collisionneurs, en vue de le valider directement. Ici aussi, contrôler les interactions fortes est crucial pour identifier avec certitude un nouveau phénomène.

Un peu d’histoire…

La prédiction du boson de Higgs illustre à merveille le travail des théoriciens, et leur rôle au côté des expérimentateurs. L’interaction faible est la seule interaction fondamentale de courte portée. Les trois autres, fortes, électromagnétiques, et gravitationnelles, sont de portée infinie car dues à l’échange de particules sans masse : gluons, photons, et gravitons. Jusqu’en 1969, le modèle de Fermi était utilisé pour décrire l’interaction faible. Bien qu’en parfait accord avec l’expérience, ce modèle ne satisfaisait pas les théoriciens. Il n’expliquait pas pourquoi les vecteurs de l’interaction faible avaient une masse et, plus grave, il était incompatible avec certains préceptes incontournables de théorie des champs : la renormalisabilité et l’unitarité. C’est ce problème qu’Englert, Higgs et d’autres ont résolu, ce qui leur a valu le Prix Nobel 2013. Ils ont montré comment générer la masse des vecteurs de l’interaction faible, et donc limiter sa portée, à travers leurs interactions avec un champ scalaire. Procéder ainsi préserve la symétrie de la théorie et la rend renormalisable et unitaire. La preuve de ce dernier point valut à ‘t Hooft et Veltman le Prix Nobel 1999. Ce mécanisme est à la base du MS, tel que formulé par Glashow, Weinberg, et Salam, Prix Nobel 1979. Ses prédictions se sont toutes spectaculairement vérifiées, la dernière en date étant l’existence du champ scalaire –le boson de Higgs– découvert en 2012 au LHC.

Qu’étudient les théoriciens du LPSC ?

Le LPSC a toujours eu un groupe de physique théorique important, jusqu’à une dizaine de chercheurs permanents. Par le passé, les thématiques étaient surtout centrées sur la physique hadronique et nucléaire. Après la vague de départs des années 2000, le groupe s’est rajeuni, restructuré et réorienté vers la physique des particules. Il se compose aujourd'hui de cinq chercheurs permanents (4 CNRS, 1 UGA), soutenus sur la période 2016-18 par deux ou trois chercheurs en CDD chaque année, et autant d’étudiants en thèse. Comme nous l’illustrerons dans ce rapport d’activités, l’équipe du LPSC contribue aux avancées dans les domaines les plus actifs et compétitifs de la physique des particules d’aujourd’hui. Grâce à ce dynamisme, à la fiabilité et au sérieux des travaux effectués, elle bénéficie d’une excellente réputation et d’une visibilité tant nationale qu’internationale.

Les travaux s’inscrivent dans le cadre général exposé plus haut, et couvrent un large spectre d’approches et de thématiques. Avant d’entrer dans le détail, nos axes majeurs de recherche sont (1) Le traitement des effets dus aux interactions fortes, en particulier dans les collisions proton-proton du LHC, (2) la formulation de modèles de nouvelle physique, l’étude de leurs phénoménologies aux collisionneurs, présent ou futur, et celle de leurs conséquences astrophysiques et cosmologiques. Ces thématiques sont étroitement liées aux programmes expérimentaux du LPSC. Par exemple, l’étude du boson de Higgs, la recherche de la supersymétrie, ou le contrôle des effets de l’interaction forte sont des préoccupations communes avec la collaboration ATLAS. Également, l’interaction forte est au cœur de l’activité de la collaboration ALICE. Nos travaux sur le problème CP fort établissent un lien naturel avec les activités de l'équipe UCN. Finalement, l’épineuse question de la nature de la matière noire mobilise une partie de nos efforts et de ceux des groupes d’astrophysique.

2. La Chromodynamique Quantique

Le but de la Chromodynamique Quantique est d’expliquer la cohésion des noyaux ainsi que la structure des hadrons : protons, neutrons, hypérons, pions, kaons, etc.…c’est-`a-dire l’essentiel de la matière visible de l’univers. Quand on sait que les hypérons, particules étranges et instables sur terre, constituent une fraction importante du cœur des étoiles à neutrons ou que les premières microsecondes de l’Univers ont vu le plasma de quarks et de gluons se transformer en hadrons, en omettant bien d’autres domaines essentiels, on ne s’étonnera pas que la QCD soit l’objet d’un immense effort théorique pour en comprendre tous les ressorts. Les activités de l'équipe en QCD se concentrent aussi bien sur les aspects perturbatifs de la QCD, que sur les calculs ab initio, donc non perturbatifs.

 2.1 Détermination des distributions de partons

L'une des activités principales de recherche de l'équipe du LPSC concerne l’étude de la structure des nucléons et noyaux complexes. Ces systèmes sont caractérisés par leurs distributions de partons (PDF) qui, intuitivement, décrivent en détails leur constitution en quarks et de gluons. Ces PDF sont d'une importance primordiale pour la physique moderne des hautes énergies, qui se concentre sur l’étude des interactions entre particules élémentaires telles les quarks et gluons. La connaissance aussi précise que possible des PDF, c’est-à-dire de la structure des hadrons, est indispensable pour exploiter au mieux les résultats expérimentaux des collisionneurs de haute énergie utilisant des hadrons dans l'état initial. En particulier, les PDF sont indispensables à la détermination d'une large classe d'observables, et des outils essentiels pour pouvoir prédire les sections efficaces des collisions p-p, p-A, A-A (ainsi que γ-p et γ-A) au Large Hadron Collider (LHC), indispensables au succès de son ambitieux programme de physique. Rappelons que le LHC explore les lois fondamentales de la nature à l'échelle du tera-électronvolt, ce qui inclut l'étude du mécanisme de brisure de symétrie électrofaible, les recherches de signaux d'une nouvelle physique, les tests de la Chromodynamique Quantique perturbative (pQCD) dans des domaines cinématiques jamais explorés jusqu'alors, ainsi que les études détaillées des propriétés du plasma de quarks et de gluons (QGP). De plus, les PDF ne sont pas seulement des outils ou des pré-requis empiriques pour les calculs, mais représentent aussi en elles-mêmes un sujet d'étude crucial de la chromodynamique quantique (QCD); elles font en particulier l'objet d'études par calculs sur réseau, ou via des théories effectives.

Les PDF sont déterminées par des ajustements globaux des données d'une grande variété de processus durs en utilisant le cadre théorique nCTEQ [1], qui a été développé par l'équipe du LPSC avec quelques membres de la collaboration CTEQ. Cette approche représente une extension du cadre théorique de la collaboration CTEQ pour analyser les PDF dans les protons, et permet de traiter plusieurs noyaux avec nombre atomique A, reproduisant le cas du proton dans la limite A→1. Un aspect unique de cette approche est ainsi sa large portée puisque les PDF dans les protons et les noyaux sont utilisées dans un cadre théorique cohérent et unifié, au lieu de la pratique habituelle qui consiste à considérer soit des protons soit des noyaux. Notre groupe a investi un effort tout particulier dans la détermination des PDF nucléaires nCTEQ et de leurs incertitudes. Par exemple, dans la figure ci-dessous sont représentées les PDF des quarks de valence dans un noyau de plomb et leurs incertitudes, à une énergie de 10 GeV, comparées aux résultats obtenus par différents groupes nPDF (HKN07, EPS09, DSSZ).

THEO FIG1

Un projet débuté récemment ambitionne d'appliquer la méthode de Monte-Carlo par chaînes de Markov à la détermination des PDF, ce qui permet en particulier une estimation plus rigoureuse des incertitudes. L'un des points les plus délicats de ces méthodes est le temps de calcul requis. Une première étude a démarré, qui vise à identifier les étapes les plus lentes et à optimiser les codes, avec une éventuelle utilisation du parallélisme.

2.2 Calculs sur réseau

La QCD ne compte que sept paramètres : une masse pour chacun des 6 quarks et une constante de couplage qui règle l’intensité de l’interaction forte. Cette théorie permet d’interpréter un nombre immense de phénomènes physiques à partir de peu de paramètres et d’un formalisme mathématique bien défini et très compact. Toute médaille a son revers et dans le cas de cette splendide théorie, il se manifeste par l’extraordinaire difficulté des calculs de QCD. Cette complexité est le prix à payer pour une théorie qui, à basse énergie, est capable de confiner les quarks et les gluons dans les hadrons.

Si à haute énergie, dans le domaine où la constante de couplage forte est relativement petite (dans les diffusions à haute énergie par exemple), les développements perturbatifs ont apporté une compréhension quantitative et qualitative précieuse de cette théorie, à basse énergie (pour la description des états liés et de la structure des hadrons par exemple) la seule méthode de calcul rigoureuse est la chromodynamique quantique sur réseau (LQCD pour « lattice QCD »).

L’une des activités principales du LPSC en LQCD [2] a consisté ces trois dernières années à développer un formalisme original pour calculer les constantes de renormalisation sur réseau. La renormalisation non perturbative est en effet un ingrédient essentiel des calculs sur réseau. La discrétisation de la QCD sur un réseau d’espace-temps fournit une régularisation évidente de la théorie, en introduisant la maille du réseau comme coupure naturelle. Cependant, toute comparaison avec des résultats physiques – en particulier en ce qui concerne les fonctions de structure du nucléon – requiert un contrôle précis de la limite du continu. La renormalisation permet, à partir des quantités nues calculées sur réseau, d’obtenir les observables physiques (indépendantes donc de la maille du réseau), avec de bonnes précisions (typiquement de l’ordre du pourcent). Les constantes de renormalisation sont donc des quantités cruciales pour une comparaison pertinente entre les résultats expérimentaux disponibles et les calculs théoriques, que ce soit pour les fonctions de structure ou les distributions de partons dans le nucléon. Les méthodes développées localement permettent en particulier d’éliminer de façon très efficace les artefacts réseau qui affectent le calcul de ces constantes de renormalisation.

THEO FIG2

L'équipe a aussi activement contribué à générer des champs de jauge (gluons) avec quatre saveurs de quarks dynamiques, et à la masse physique des quarks, ce qui représente une première dans le domaine de la LQCD.

3. La recherche de nouvelle physique

Le LHC explore la physique à l’échelle d’énergie du TeV, dans l’espoir d’y découvrir les mécanismes régissant la brisure de la symétrie électrofaible et d’observer les premiers signes d’une dynamique au-delà du Modèle Standard (MS). La découverte en 2012 d’une nouvelle particule, avec une masse d’environ 125 GeV et des propriétés proches de celles attendues pour le boson de Higgs du MS, véritable pierre angulaire de ce modèle, constitue donc un premier triomphe pour ce programme.

Même conforté par cette découverte, le MS laisse beaucoup de questions en suspens. Outre qu’il exclue la gravité, les valeurs mesurées de ses paramètres ne semblent pas arbitraires. Par exemple, la convergence des constantes de couplage forte, faible et électromagnétique ou la petitesse des masses des neutrinos ne se comprennent naturellement qu’en présence d’une nouvelle dynamique à très haute énergie, entre 1012 et 1016 GeV. Plus grave, la légèreté du boson de Higgs par rapport à ces énergies est inexplicable dans le cadre du MS où les corrections radiatives l’alourdiraient terriblement.

Ce problème de hiérarchie peut se résoudre par l’extension du MS dès l’échelle d’énergie du TeV. Toutes les extensions proposées introduisent de nouvelles particules, qu’elles soient fermioniques (matière), vectorielles (interaction), ou scalaires (similaires au boson de Higgs). N’étant pas toutes beaucoup plus lourdes que celles du MS, elles peuvent affecter sa dynamique. Par exemple, les propriétés du boson majoritairement en charge de la brisure électrofaible sont altérées. De ce fait, l’étude détaillée du boson observé à 125 GeV ouvre une fenêtre précieuse sur la nouvelle physique, et impacte directement les modèles les plus étudiés : supersymétrie, nouvelles dimensions spatiales, brisures non-perturbatives (technicouleur, little Higgs…), ou plus génériquement les modèles avec groupes de jauge étendus, secteur de Higgs élargi, ou nouvelle génération de matière.

3.1 Phénomènes supersymétriques aux collisionneurs

Les principes de symétrie sous-tendent les théories de physique des particules élémentaires. Historiquement, le premier groupe de symétrie est celui de Galilée, intimement lié à la mécanique classique. Plus tard, ce groupe fut supplanté par celui de Poincaré, intrinsèque à la relativité restreinte. La supersymétrie (SUSY) s’inscrit dans cette évolution ; sa version locale pourrait même en être l’étape ultime dans le cadre d’une théorie quantique des champs. Elle offre une description unifiée des particules de spins entiers et demi-entiers, éliminant ainsi la distinction entre interactions dues à l’échange cohérent de bosons et matières stabilisées grâce au principe d’exclusion de Fermi.

Phénoménologiquement, le principal attrait de la SUSY est qu’elle résout le problème de hiérarchie : grâce à la présence d’un partenaire de spin différent d’1/2 pour chaque particule du MS, les corrections radiatives se compensent largement, et le boson de Higgs ne s’alourdit plus autant. Évidemment, cette compensation n’est efficace qu’avec des partenaires pas trop lourds. Typiquement, ils devraient avoir des masses de l’ordre du TeV, et être accessibles au LHC.

THEO FIG3

Toutefois, la SUSY en tant que telle est loin d’être un principe suffisant pour complètement définir une théorie. En effet, cette symétrie ne peut être qu’approximative à basse énergie puisque particules et sparticules n’ont pas les mêmes masses. Actuellement, de nombreux modèles ou descriptions phénoménologiques de sa brisure coexistent, ce qui rend l’étude de la SUSY plutôt complexe. D’un autre côté, cette sous-détermination peut être vue comme une qualité phénoménologique : de par sa versatilité, la SUSY permet de sonder une large gamme d’effets de nouvelle physique, et ce tout en restant dans le cadre d’une théorie renormalisable, dont les corrections quantiques sont calculables.

Le contexte supersymétrique couvre une large partie de nos activités. Comme pour l’étude du boson de Higgs, celle de la SUSY peut se faire de façon effective, c’est-à-dire en tentant de couvrir aussi largement que possible ses réalisations concrètes, ou de façon spécifique en se concentrant sur un modèle précis. Nos travaux suivent l’une ou l’autre voie, et tentent surtout d’interpréter les contraintes expérimentales et/ou de proposer de nouvelles stratégies pour découvrir ou contraindre la SUSY.

3.2 Théorie effective

En plus de la SUSY, l'équipe du LPSC étudie de nombreux autres scénarios de nouvelle physique. Récemment, ses travaux ont surtout reposé sur le formalisme effectif, que ce soit pour interpréter le signal d’un boson de Higgs à 125 GeV et les mesures de ses couplages, les limites « Simplified Model Spectra » [3], la violation du nombre baryonique dans les canaux dileptons, ou la recherche de matière noire. À chaque fois, l'équipe a paramétré en toute généralité, sans référence à un modèle particulier, l’impact de la nouvelle physique. De plus, ces analyses ont été illustrées à l’aide de modèles spécifiques, par exemple les secteurs scalaires étendus pour les études du boson de Higgs et de la matière noire, ou les leptoquarks pour celles sur la violation du nombre baryonique.

L'équipe s'est également intéressée aux théories introduisant de nouveaux bosons de jauges (W’, Z’) très massifs. De telles particules se détectent via leurs désintégrations, par exemple en paires de leptons et/ou de quarks, qui souffrent d’importantes incertitudes dues aux interactions fortes. Grâce aux calculs des corrections quantiques effectués au sein de l'équipe, ces incertitudes ont pu être réduites, ce qui permettrait, au moins en principe, de caractériser la théorie sous-jacente à partir de signaux expérimentaux.

Finalement, l'équipe du LPSC s’intéresse à la mise au point d’une procédure permettant de rechercher une nouvelle particule qui interférerait avec le bruit de fond (constitué des particules du Modèle Standard), créant des structures très singulière en “pic et creux” qui ne sont pas encore maîtrisées. Cette thématique est l’objet d’un groupe de travail au CERN [4].

4. La Matière noire : Propriétés et contraintes

À moins de profondément modifier notre compréhension de la gravité, l’univers ne peut être constitué uniquement de matière connue. Les preuves cosmologiques et astrophysiques de l’existence d’une grande quantité de matière noire s’accumulent et, dans une large mesure, concordent. Si cette matière noire (dénotée DM pour dark matter) se compose de particules, elles doivent être stables à l’échelle de l’âge de l’univers, électriquement neutres, et non relativistes. Ceci étant, aujourd’hui, nous n’en savons pas plus sur cette forme de matière, et elle n'a pas été observée directement sur terre.

Néanmoins, les théoriciens s’attendent à ce que la DM ne soit pas très différente de la matière classique. D’abord, les densités reliques de matière baryonique et noire sont très proches, juste un facteur cinq. Puis, le MS contient déjà des particules de DM, les neutrinos, même si pas en quantité suffisante. Ensuite, les théories de nouvelle physique incluent souvent, ou peuvent facilement inclure, une particule stable, neutre et suffisamment massive. Enfin, si cette particule de DM interagit avec celles du MS, alors l’intensité de cette interaction doit être similaire à celle de l’interaction faible. Par exemple, en supersymétrie avec parité R, le plus léger des super-partenaires neutres des bosons de Higgs et de jauge peut parfaitement remplir ce rôle. Plus généralement, tous ces indices pointent vers une modification relativement légère du MS, et non vers un changement complet de paradigme.

Une telle interaction de la DM avec la matière ordinaire ouvre la possibilité de l’observer directement, tant aux expériences dédiées qu’aux collisionneurs. Inversement, la mesure de sa densité relique et l’absence actuelle de signaux deviennent contraignantes pour nos modèles de nouvelle physique. Cette connexion est à la base des travaux de l'équipe du LPSC. Comme précédemment, l’une des deux stratégies complémentaires pour l’exploiter est mise en œuvre : soit effective, en paramétrant les couplages de la DM de manière générique, soit dans un modèle particulier, en étudiant la viabilité de son candidat DM.

Toujours est-il qu'en dépit d'un large programme expérimental, aucune particule de DM n'a été découverte jusqu'à présent. Toutes les évidences de son existence restent de nature gravitationnelle. Alors que beaucoup de théories prédisent des interactions avec les particules du Modèle Standard, et justifient donc l'existence de ce large programme, il est aussi tout à fait possible que le secteur de la matière noire soit isolé. Dans ce cas, des progrès significatifs peuvent toujours être fait en se basant sur des observations cosmologiques et astrophysiques. En particulier, des observations astronomiques sur des échelles relativement petites pourraient mettre en évidence les propriétés thermodynamiques de ce secteur caché, et ce d'autant plus que les observations vont énormément progresser dans les années à venir grâce à la nouvelle génération d'outils de hautes précisions astronomiques tels que LIGO, Gaia et LSST. L'équipe du LPSC s’emploie donc à fournir des prédictions quantitatives pour les structures de matière noire sur de petites échelles cosmologiques, tels les trous noirs primordiaux ou les amas d'axions, ainsi qu'à leur détection par exemple via lentillage gravitationnel.

5. Pour en savoir plus

Liens vers les pages de nos collaborations

[1] Pour les distributions de partons : la collaboration nCTEQ.

[2] Pour les calculs sur réseaux, la collaboration ETMC.

[3] Pour les outils automatisés, voir par exemple PyR@TE qui implémente l'évolution sous le groupe de renormalisation de n'importe quel modèle, ou SModelS qui permet d'interpréter les résultats d'analyses au LHC.

[4] Certaines de nos études du secteur scalaire s'inscrivent dans le cadre du LHC Higgs Cross Section working group, auquel notre groupe est rattaché.