Présentation des activités QCD

 

Membres permanents impliqués : Mariane Mangin-Brinet, Ingo Schienbein

 

Notre groupe contribue à la compréhension de la théorie qui régit les interactions fortes : la Chromodynamique Quantique (QCD), L’ambition de la Chromodynamique Quantique est d’expliquer la cohésion des noyaux ainsi que la structure des protons et des neutrons, c’est-à-dire l’essentiel de la matière visible de l’univers. Son domaine d’application est même beaucoup plus vaste puisqu’elle contrôle la structure et les interactions de tous les hadrons : proton, neutron, hypérons, pions, kaons, etc...Quand on sait que les hypérons, particules étranges et instables sur terre, constituent une fraction importante du coeur des étoiles à neutrons ou que les premières microsecondes de l’Univers ont vu le plasma de quarks et de gluons se transformer en hadrons, en omettant bien d’autres domaines essentiels, on ne s’étonnera pas que la QCD soit l’objet d’un immense effort théorique pour en comprendre tous les ressorts.

La QCD est l’une des théories les plus élégantes de l’Histoire des sciences (avec la Relativité Générale) ; elle n’a que peu de paramètres et permet de donner une interprétation physique à un très grand nombre de phénomènes, en utilisant un formalisme compact et bien défini. Nos activités en QCD se concentrent aussi bien sur les aspects perturbatifs de la QCD, que sur les calculs ab initio, donc non perturbatifs.

 QCD perturbative

Parmi les ingrédients fondamentaux de la QCD auxquels nous nous intéressons, les distributions de partons (ou PDF) sont des éléments clefs, qui jouent un rôle essentiel pour connecter la dynamique QCD des quarks et des gluons (les constituants fondamentaux de la matière), avec les sections efficaces mesurées dans les collisionneurs de hadrons. Elles représentent une source précieuse d’informations sur la structure partonique des hadrons et des efforts considérables, aussi bien théoriques qu’expérimentaux, ont été consacrés ces dernières années à leur détermination. Nous contribuons en particulier à déterminer les PDF par des ajustements globaux des données d'une grande variété de processus durs en utilisant le cadre théorique nCTEQ, qui a été développé par notre groupe au LPSC avec quelques membres de la collaboration CTEQ. Pour plus d’informations sur les activités PDF et QCD pertubative, cliquez ici.

QCD sur réseau

Un autre angle d’approche consiste à utiliser les techniques de QCD sur réseau, ou LQCD (Lattice QCD). L’objectif de la LQCD – dont le principe s’inspire de la Physique Statistique – est de résoudre rigoureusement la théorie quantique de l’interaction forte, c’est-à-dire de trouver les solutions de cette théorie fondamentale sans hypothèses incontrôlées et avec des précisions rivalisant avec celles atteintes par les expériences. Cette méthode est la seule approche connue à ce jour, qui permet des calculs ab-initio de quantités non perturbatives. Nos activités de QCD sur réseau se concentrent sur le calcul des propriétés des hadrons et sur la renormalisation non perturbative. Comprendre et décrire la structure des hadrons à partir des premiers principes est en effet l'un des buts fondamentaux de la LQCD. Cependant, alors que la LQCD est devenue ces dernières années, une technique de haute précision pour plusieurs observables, le calcul des éléments de matrice du nucléon reste un défi. Pour plus d’informations sur les activités QCD sur réseau, cliquez ici.

 

 

 

 

Crédit photo : CERN Courier

Membres permanents impliqués : Aurélien Barrau et Killian Martineau.
 
Principaux objectifs : Étudier l’Univers primordial ainsi que sa dynamique contemporaine.
 
La compréhension des premiers instants du Cosmos requiert un cadre théorique au-delà de la relativité générale. Il n’existe actuellement pas de modèle consensuel de gravitation quantique mais différentes approches permettent de résoudre l’émergence d'une singularité attendue dans le cadre de la gravitation classique.  L’enjeu est double : d'une part tenter de reconstruire l’histoire de l’Univers, y compris avant l’inflation, et d'autre part parvenir à utiliser l’Univers comme un laboratoire pour contraindre ou tester les théories spéculative de quantification de l’espace-temps.
 
L’étude des trous noirs complète naturellement celle de l’Univers primordial. Qu’il s’agisse de leurs propriété quantiques ou de leur modes de relaxation par émission d’ondes gravitationnelles, ils donnent accès à d’autres informations sur les propriété des l’espace-temps au-delà du modèle standard.
 
Par ailleurs, l’actuelle accélération de l’expansion cosmologique est au cœur de multiples interrogations qui convoquent à la fois gravitation modifiée et théorie des champs avec une prise en compte des contraintes observationnelles récentes.
 

 

1. Introduction : le contexte 

La physique théorique a comme objectif la construction de modèles mathématiques aussi simples et complets que possible, capables de rendre compte d’un maximum de phénomènes physiques à partir d’un minimum de paramètres libres. En physique des particules, ces modèles décrivent les constituants élémentaires et leurs interactions. Dans ce contexte, le siècle dernier a vu l’avènement du Modèle Standard (MS), décrivant presque tous les processus connus en termes de juste 19 paramètres. Il laisse de côté l’interaction gravitationnelle, dont le traitement quantique nous échappe, mais reste le meilleur modèle disponible aujourd’hui. Bien sûr, le but ultime est d’inclure toutes les interactions au sein d’une seule théorie ayant peu ou pas de paramètres libres. Le fonctionnement de l’univers, du subatomique au cosmologique, découlerait alors entièrement de sa structure géométrique intime.

Au quotidien, face à l’ampleur et l’ambition de cet objectif, les théoriciens suivent deux axes de travail. Un premier angle d’attaque est de tester le MS, et d’estimer précisément ses paramètres libres. La théorie intervient car le lien entre paramètres fondamentaux et observables mesurées est indirect. L’établir nécessite l’évaluation de corrections quantiques, particulièrement complexes quand l’interaction forte joue un rôle. Par exemple, lorsque le LHC collisionne des protons, agrégats de quarks et de gluons, ce sont ces derniers qui interagissent. La mesure d’un paramètre fondamental nécessite donc de contrôler la distribution des constituants des protons.

Au lieu de tester le MS en espérant le prendre en défaut, la deuxième approche est de regarder directement au-delà. En effet, passer du MS à la théorie ultime, si elle existe, ne se fait probablement pas en une étape. Donc, partant des limitations du MS, les théoriciens cherchent à construire des modèles un peu plus simples ou complets. Par exemple, ils peuvent avoir moins de paramètres libres ou un meilleur comportement quantique, expliquer pourquoi les neutrinos sont si légers, de quoi est faite la matière noire, ou comment l’équilibre entre matière et antimatière s’est brisé après le Big Bang. Reste alors à vérifier si ce modèle passe les contraintes expérimentales actuelles, puis à analyser sa phénoménologie, entre autres aux collisionneurs, en vue de le valider directement. Ici aussi, contrôler les interactions fortes est crucial pour identifier avec certitude un nouveau phénomène.

Un peu d’histoire…

La prédiction du boson de Higgs illustre à merveille le travail des théoriciens, et leur rôle au côté des expérimentateurs. L’interaction faible est la seule interaction fondamentale de courte portée. Les trois autres, fortes, électromagnétiques, et gravitationnelles, sont de portée infinie car dues à l’échange de particules sans masse : gluons, photons, et gravitons. Jusqu’en 1969, le modèle de Fermi était utilisé pour décrire l’interaction faible. Bien qu’en parfait accord avec l’expérience, ce modèle ne satisfaisait pas les théoriciens. Il n’expliquait pas pourquoi les vecteurs de l’interaction faible avaient une masse et, plus grave, il était incompatible avec certains préceptes incontournables de théorie des champs : la renormalisabilité et l’unitarité. C’est ce problème qu’Englert, Higgs et d’autres ont résolu, ce qui leur a valu le Prix Nobel 2013. Ils ont montré comment générer la masse des vecteurs de l’interaction faible, et donc limiter sa portée, à travers leurs interactions avec un champ scalaire. Procéder ainsi préserve la symétrie de la théorie et la rend renormalisable et unitaire. La preuve de ce dernier point valut à ‘t Hooft et Veltman le Prix Nobel 1999. Ce mécanisme est à la base du MS, tel que formulé par Glashow, Weinberg, et Salam, Prix Nobel 1979. Ses prédictions se sont toutes spectaculairement vérifiées, la dernière en date étant l’existence du champ scalaire –le boson de Higgs– découvert en 2012 au LHC.

Qu’étudient les théoriciens du LPSC ?

Le LPSC a toujours eu un groupe de physique théorique important, jusqu’à une dizaine de chercheurs permanents. Par le passé, les thématiques étaient surtout centrées sur la physique hadronique et nucléaire. Après la vague de départs des années 2000, le groupe s’est rajeuni, restructuré et réorienté vers la physique des particules. Il se compose aujourd'hui de cinq chercheurs permanents (4 CNRS, 1 UGA), soutenus sur la période 2016-18 par deux ou trois chercheurs en CDD chaque année, et autant d’étudiants en thèse. Comme nous l’illustrerons dans ce rapport d’activités, l’équipe du LPSC contribue aux avancées dans les domaines les plus actifs et compétitifs de la physique des particules d’aujourd’hui. Grâce à ce dynamisme, à la fiabilité et au sérieux des travaux effectués, elle bénéficie d’une excellente réputation et d’une visibilité tant nationale qu’internationale.

Les travaux s’inscrivent dans le cadre général exposé plus haut, et couvrent un large spectre d’approches et de thématiques. Avant d’entrer dans le détail, nos axes majeurs de recherche sont (1) Le traitement des effets dus aux interactions fortes, en particulier dans les collisions proton-proton du LHC, (2) la formulation de modèles de nouvelle physique, l’étude de leurs phénoménologies aux collisionneurs, présent ou futur, et celle de leurs conséquences astrophysiques et cosmologiques. Ces thématiques sont étroitement liées aux programmes expérimentaux du LPSC. Par exemple, l’étude du boson de Higgs, la recherche de la supersymétrie, ou le contrôle des effets de l’interaction forte sont des préoccupations communes avec la collaboration ATLAS. Également, l’interaction forte est au cœur de l’activité de la collaboration ALICE. Nos travaux sur le problème CP fort établissent un lien naturel avec les activités de l'équipe UCN. Finalement, l’épineuse question de la nature de la matière noire mobilise une partie de nos efforts et de ceux des groupes d’astrophysique.

2. La Chromodynamique Quantique

Le but de la Chromodynamique Quantique est d’expliquer la cohésion des noyaux ainsi que la structure des hadrons : protons, neutrons, hypérons, pions, kaons, etc.…c’est-`a-dire l’essentiel de la matière visible de l’univers. Quand on sait que les hypérons, particules étranges et instables sur terre, constituent une fraction importante du cœur des étoiles à neutrons ou que les premières microsecondes de l’Univers ont vu le plasma de quarks et de gluons se transformer en hadrons, en omettant bien d’autres domaines essentiels, on ne s’étonnera pas que la QCD soit l’objet d’un immense effort théorique pour en comprendre tous les ressorts. Les activités de l'équipe en QCD se concentrent aussi bien sur les aspects perturbatifs de la QCD, que sur les calculs ab initio, donc non perturbatifs.

 2.1 Détermination des distributions de partons

L'une des activités principales de recherche de l'équipe du LPSC concerne l’étude de la structure des nucléons et noyaux complexes. Ces systèmes sont caractérisés par leurs distributions de partons (PDF) qui, intuitivement, décrivent en détails leur constitution en quarks et de gluons. Ces PDF sont d'une importance primordiale pour la physique moderne des hautes énergies, qui se concentre sur l’étude des interactions entre particules élémentaires telles les quarks et gluons. La connaissance aussi précise que possible des PDF, c’est-à-dire de la structure des hadrons, est indispensable pour exploiter au mieux les résultats expérimentaux des collisionneurs de haute énergie utilisant des hadrons dans l'état initial. En particulier, les PDF sont indispensables à la détermination d'une large classe d'observables, et des outils essentiels pour pouvoir prédire les sections efficaces des collisions p-p, p-A, A-A (ainsi que γ-p et γ-A) au Large Hadron Collider (LHC), indispensables au succès de son ambitieux programme de physique. Rappelons que le LHC explore les lois fondamentales de la nature à l'échelle du tera-électronvolt, ce qui inclut l'étude du mécanisme de brisure de symétrie électrofaible, les recherches de signaux d'une nouvelle physique, les tests de la Chromodynamique Quantique perturbative (pQCD) dans des domaines cinématiques jamais explorés jusqu'alors, ainsi que les études détaillées des propriétés du plasma de quarks et de gluons (QGP). De plus, les PDF ne sont pas seulement des outils ou des pré-requis empiriques pour les calculs, mais représentent aussi en elles-mêmes un sujet d'étude crucial de la chromodynamique quantique (QCD); elles font en particulier l'objet d'études par calculs sur réseau, ou via des théories effectives.

Les PDF sont déterminées par des ajustements globaux des données d'une grande variété de processus durs en utilisant le cadre théorique nCTEQ [1], qui a été développé par l'équipe du LPSC avec quelques membres de la collaboration CTEQ. Cette approche représente une extension du cadre théorique de la collaboration CTEQ pour analyser les PDF dans les protons, et permet de traiter plusieurs noyaux avec nombre atomique A, reproduisant le cas du proton dans la limite A→1. Un aspect unique de cette approche est ainsi sa large portée puisque les PDF dans les protons et les noyaux sont utilisées dans un cadre théorique cohérent et unifié, au lieu de la pratique habituelle qui consiste à considérer soit des protons soit des noyaux. Notre groupe a investi un effort tout particulier dans la détermination des PDF nucléaires nCTEQ et de leurs incertitudes. Par exemple, dans la figure ci-dessous sont représentées les PDF des quarks de valence dans un noyau de plomb et leurs incertitudes, à une énergie de 10 GeV, comparées aux résultats obtenus par différents groupes nPDF (HKN07, EPS09, DSSZ).

THEO FIG1

Un projet débuté récemment ambitionne d'appliquer la méthode de Monte-Carlo par chaînes de Markov à la détermination des PDF, ce qui permet en particulier une estimation plus rigoureuse des incertitudes. L'un des points les plus délicats de ces méthodes est le temps de calcul requis. Une première étude a démarré, qui vise à identifier les étapes les plus lentes et à optimiser les codes, avec une éventuelle utilisation du parallélisme.

2.2 Calculs sur réseau

La QCD ne compte que sept paramètres : une masse pour chacun des 6 quarks et une constante de couplage qui règle l’intensité de l’interaction forte. Cette théorie permet d’interpréter un nombre immense de phénomènes physiques à partir de peu de paramètres et d’un formalisme mathématique bien défini et très compact. Toute médaille a son revers et dans le cas de cette splendide théorie, il se manifeste par l’extraordinaire difficulté des calculs de QCD. Cette complexité est le prix à payer pour une théorie qui, à basse énergie, est capable de confiner les quarks et les gluons dans les hadrons.

Si à haute énergie, dans le domaine où la constante de couplage forte est relativement petite (dans les diffusions à haute énergie par exemple), les développements perturbatifs ont apporté une compréhension quantitative et qualitative précieuse de cette théorie, à basse énergie (pour la description des états liés et de la structure des hadrons par exemple) la seule méthode de calcul rigoureuse est la chromodynamique quantique sur réseau (LQCD pour « lattice QCD »).

L’une des activités principales du LPSC en LQCD [2] a consisté ces trois dernières années à développer un formalisme original pour calculer les constantes de renormalisation sur réseau. La renormalisation non perturbative est en effet un ingrédient essentiel des calculs sur réseau. La discrétisation de la QCD sur un réseau d’espace-temps fournit une régularisation évidente de la théorie, en introduisant la maille du réseau comme coupure naturelle. Cependant, toute comparaison avec des résultats physiques – en particulier en ce qui concerne les fonctions de structure du nucléon – requiert un contrôle précis de la limite du continu. La renormalisation permet, à partir des quantités nues calculées sur réseau, d’obtenir les observables physiques (indépendantes donc de la maille du réseau), avec de bonnes précisions (typiquement de l’ordre du pourcent). Les constantes de renormalisation sont donc des quantités cruciales pour une comparaison pertinente entre les résultats expérimentaux disponibles et les calculs théoriques, que ce soit pour les fonctions de structure ou les distributions de partons dans le nucléon. Les méthodes développées localement permettent en particulier d’éliminer de façon très efficace les artefacts réseau qui affectent le calcul de ces constantes de renormalisation.

THEO FIG2

L'équipe a aussi activement contribué à générer des champs de jauge (gluons) avec quatre saveurs de quarks dynamiques, et à la masse physique des quarks, ce qui représente une première dans le domaine de la LQCD.

3. La recherche de nouvelle physique

Le LHC explore la physique à l’échelle d’énergie du TeV, dans l’espoir d’y découvrir les mécanismes régissant la brisure de la symétrie électrofaible et d’observer les premiers signes d’une dynamique au-delà du Modèle Standard (MS). La découverte en 2012 d’une nouvelle particule, avec une masse d’environ 125 GeV et des propriétés proches de celles attendues pour le boson de Higgs du MS, véritable pierre angulaire de ce modèle, constitue donc un premier triomphe pour ce programme.

Même conforté par cette découverte, le MS laisse beaucoup de questions en suspens. Outre qu’il exclue la gravité, les valeurs mesurées de ses paramètres ne semblent pas arbitraires. Par exemple, la convergence des constantes de couplage forte, faible et électromagnétique ou la petitesse des masses des neutrinos ne se comprennent naturellement qu’en présence d’une nouvelle dynamique à très haute énergie, entre 1012 et 1016 GeV. Plus grave, la légèreté du boson de Higgs par rapport à ces énergies est inexplicable dans le cadre du MS où les corrections radiatives l’alourdiraient terriblement.

Ce problème de hiérarchie peut se résoudre par l’extension du MS dès l’échelle d’énergie du TeV. Toutes les extensions proposées introduisent de nouvelles particules, qu’elles soient fermioniques (matière), vectorielles (interaction), ou scalaires (similaires au boson de Higgs). N’étant pas toutes beaucoup plus lourdes que celles du MS, elles peuvent affecter sa dynamique. Par exemple, les propriétés du boson majoritairement en charge de la brisure électrofaible sont altérées. De ce fait, l’étude détaillée du boson observé à 125 GeV ouvre une fenêtre précieuse sur la nouvelle physique, et impacte directement les modèles les plus étudiés : supersymétrie, nouvelles dimensions spatiales, brisures non-perturbatives (technicouleur, little Higgs…), ou plus génériquement les modèles avec groupes de jauge étendus, secteur de Higgs élargi, ou nouvelle génération de matière.

3.1 Phénomènes supersymétriques aux collisionneurs

Les principes de symétrie sous-tendent les théories de physique des particules élémentaires. Historiquement, le premier groupe de symétrie est celui de Galilée, intimement lié à la mécanique classique. Plus tard, ce groupe fut supplanté par celui de Poincaré, intrinsèque à la relativité restreinte. La supersymétrie (SUSY) s’inscrit dans cette évolution ; sa version locale pourrait même en être l’étape ultime dans le cadre d’une théorie quantique des champs. Elle offre une description unifiée des particules de spins entiers et demi-entiers, éliminant ainsi la distinction entre interactions dues à l’échange cohérent de bosons et matières stabilisées grâce au principe d’exclusion de Fermi.

Phénoménologiquement, le principal attrait de la SUSY est qu’elle résout le problème de hiérarchie : grâce à la présence d’un partenaire de spin différent d’1/2 pour chaque particule du MS, les corrections radiatives se compensent largement, et le boson de Higgs ne s’alourdit plus autant. Évidemment, cette compensation n’est efficace qu’avec des partenaires pas trop lourds. Typiquement, ils devraient avoir des masses de l’ordre du TeV, et être accessibles au LHC.

THEO FIG3

Toutefois, la SUSY en tant que telle est loin d’être un principe suffisant pour complètement définir une théorie. En effet, cette symétrie ne peut être qu’approximative à basse énergie puisque particules et sparticules n’ont pas les mêmes masses. Actuellement, de nombreux modèles ou descriptions phénoménologiques de sa brisure coexistent, ce qui rend l’étude de la SUSY plutôt complexe. D’un autre côté, cette sous-détermination peut être vue comme une qualité phénoménologique : de par sa versatilité, la SUSY permet de sonder une large gamme d’effets de nouvelle physique, et ce tout en restant dans le cadre d’une théorie renormalisable, dont les corrections quantiques sont calculables.

Le contexte supersymétrique couvre une large partie de nos activités. Comme pour l’étude du boson de Higgs, celle de la SUSY peut se faire de façon effective, c’est-à-dire en tentant de couvrir aussi largement que possible ses réalisations concrètes, ou de façon spécifique en se concentrant sur un modèle précis. Nos travaux suivent l’une ou l’autre voie, et tentent surtout d’interpréter les contraintes expérimentales et/ou de proposer de nouvelles stratégies pour découvrir ou contraindre la SUSY.

3.2 Théorie effective

En plus de la SUSY, l'équipe du LPSC étudie de nombreux autres scénarios de nouvelle physique. Récemment, ses travaux ont surtout reposé sur le formalisme effectif, que ce soit pour interpréter le signal d’un boson de Higgs à 125 GeV et les mesures de ses couplages, les limites « Simplified Model Spectra » [3], la violation du nombre baryonique dans les canaux dileptons, ou la recherche de matière noire. À chaque fois, l'équipe a paramétré en toute généralité, sans référence à un modèle particulier, l’impact de la nouvelle physique. De plus, ces analyses ont été illustrées à l’aide de modèles spécifiques, par exemple les secteurs scalaires étendus pour les études du boson de Higgs et de la matière noire, ou les leptoquarks pour celles sur la violation du nombre baryonique.

L'équipe s'est également intéressée aux théories introduisant de nouveaux bosons de jauges (W’, Z’) très massifs. De telles particules se détectent via leurs désintégrations, par exemple en paires de leptons et/ou de quarks, qui souffrent d’importantes incertitudes dues aux interactions fortes. Grâce aux calculs des corrections quantiques effectués au sein de l'équipe, ces incertitudes ont pu être réduites, ce qui permettrait, au moins en principe, de caractériser la théorie sous-jacente à partir de signaux expérimentaux.

Finalement, l'équipe du LPSC s’intéresse à la mise au point d’une procédure permettant de rechercher une nouvelle particule qui interférerait avec le bruit de fond (constitué des particules du Modèle Standard), créant des structures très singulière en “pic et creux” qui ne sont pas encore maîtrisées. Cette thématique est l’objet d’un groupe de travail au CERN [4].

4. La Matière noire : Propriétés et contraintes

À moins de profondément modifier notre compréhension de la gravité, l’univers ne peut être constitué uniquement de matière connue. Les preuves cosmologiques et astrophysiques de l’existence d’une grande quantité de matière noire s’accumulent et, dans une large mesure, concordent. Si cette matière noire (dénotée DM pour dark matter) se compose de particules, elles doivent être stables à l’échelle de l’âge de l’univers, électriquement neutres, et non relativistes. Ceci étant, aujourd’hui, nous n’en savons pas plus sur cette forme de matière, et elle n'a pas été observée directement sur terre.

Néanmoins, les théoriciens s’attendent à ce que la DM ne soit pas très différente de la matière classique. D’abord, les densités reliques de matière baryonique et noire sont très proches, juste un facteur cinq. Puis, le MS contient déjà des particules de DM, les neutrinos, même si pas en quantité suffisante. Ensuite, les théories de nouvelle physique incluent souvent, ou peuvent facilement inclure, une particule stable, neutre et suffisamment massive. Enfin, si cette particule de DM interagit avec celles du MS, alors l’intensité de cette interaction doit être similaire à celle de l’interaction faible. Par exemple, en supersymétrie avec parité R, le plus léger des super-partenaires neutres des bosons de Higgs et de jauge peut parfaitement remplir ce rôle. Plus généralement, tous ces indices pointent vers une modification relativement légère du MS, et non vers un changement complet de paradigme.

Une telle interaction de la DM avec la matière ordinaire ouvre la possibilité de l’observer directement, tant aux expériences dédiées qu’aux collisionneurs. Inversement, la mesure de sa densité relique et l’absence actuelle de signaux deviennent contraignantes pour nos modèles de nouvelle physique. Cette connexion est à la base des travaux de l'équipe du LPSC. Comme précédemment, l’une des deux stratégies complémentaires pour l’exploiter est mise en œuvre : soit effective, en paramétrant les couplages de la DM de manière générique, soit dans un modèle particulier, en étudiant la viabilité de son candidat DM.

Toujours est-il qu'en dépit d'un large programme expérimental, aucune particule de DM n'a été découverte jusqu'à présent. Toutes les évidences de son existence restent de nature gravitationnelle. Alors que beaucoup de théories prédisent des interactions avec les particules du Modèle Standard, et justifient donc l'existence de ce large programme, il est aussi tout à fait possible que le secteur de la matière noire soit isolé. Dans ce cas, des progrès significatifs peuvent toujours être fait en se basant sur des observations cosmologiques et astrophysiques. En particulier, des observations astronomiques sur des échelles relativement petites pourraient mettre en évidence les propriétés thermodynamiques de ce secteur caché, et ce d'autant plus que les observations vont énormément progresser dans les années à venir grâce à la nouvelle génération d'outils de hautes précisions astronomiques tels que LIGO, Gaia et LSST. L'équipe du LPSC s’emploie donc à fournir des prédictions quantitatives pour les structures de matière noire sur de petites échelles cosmologiques, tels les trous noirs primordiaux ou les amas d'axions, ainsi qu'à leur détection par exemple via lentillage gravitationnel.

5. Pour en savoir plus

Liens vers les pages de nos collaborations

[1] Pour les distributions de partons : la collaboration nCTEQ.

[2] Pour les calculs sur réseaux, la collaboration ETMC.

[3] Pour les outils automatisés, voir par exemple PyR@TE qui implémente l'évolution sous le groupe de renormalisation de n'importe quel modèle, ou SModelS qui permet d'interpréter les résultats d'analyses au LHC.

[4] Certaines de nos études du secteur scalaire s'inscrivent dans le cadre du LHC Higgs Cross Section working group, auquel notre groupe est rattaché.