Crédits : NASA
La mesure des données nucléaires préconisée par la feuille de route permettrait d'interpréter avec plus de justesse les données sur les rayons cosmiques, telles que celles récoltées par l'instrument AMS-02.
Données nucléaires : un plan d’action pour déchiffrer les rayons cosmiques
2 février 2026
Un collectif international de scientifiques, mené notamment par des chercheurs et chercheuses du CNRS, a publié une feuille de route ambitieuse visant à combler, au cours de la prochaine décennie, les lacunes les plus critiques sur les données nucléaires décrivant l’évolution dans le milieu-stellaire d’une partie des rayons cosmiques, cette pluie de particules s’abattant sur la Terre depuis le cosmos. Mesurer ces interactions avec davantage de précision pourrait ainsi permettre aux scientifiques de déchiffrer le message des rayons cosmiques, mais aussi de consolider les modèles nucléaires qui sous-tendent à la fois l’hadronthérapie et la protection contre les rayonnements dans le cadre des programmes spatiaux.
Partager ce contenu
Catégories
The AMS-02 Mounted on the International Space Station (Credit: NASA)
Les expériences spatiales d’étude des rayons cosmiques, ces noyaux qui voyagent à des vitesses folles dans l’Univers, n’ont jamais été aussi précises. Un instrument comme AMS-02, embarqué à bord de la Station spatiale internationale, mesure aujourd’hui le flux des rayons cosmiques d’origine galactique avec une précision de l’ordre de quelques pourcents, sur une vaste gamme d’énergies allant du GeV au TeV. Pourtant, malgré cette avalanche de données d’une grande finesse, il reste bien difficile d’en tirer des enseignements. En cause : les données nucléaires. Cet ensemble tentaculaire de données rassemble nos connaissances sur les multiples réactions que peut subir un noyau se déplaçant dans un milieu comme l’espace galactique. Indispensable pour déchiffrer les messages des rayons cosmiques, il souffre pourtant d’un manque chronique de précision : souvent mesurées au XXème siècle avec les instruments de l’époque, les données pourraient être aujourd’hui largement améliorées. C’est l’objet de la feuille de route proposée dans Physics Report par un collectif international de scientifiques mené par des chercheurs et chercheuses de CNRS Nucléaire & Particules et CNRS Physique.
Les données d’intérêt pour la science des rayons cosmiques concernent les réactions dites de spallation, par lesquelles les noyaux les plus abondants du rayonnement cosmique (et en particulier le carbone et l'oxygène), se fragmentent en entrant en collision avec des protons, générant de nouvelles espèces, parfois rares. Ces réactions sculptent les rayons cosmiques sur une très large gamme d’énergie, allant des énergies habituelles pour la physique nucléaire jusqu’au domaine de la physique des particules. Elles peuvent être reproduites directement sur Terre, en utilisant les faisceaux disponibles auprès des plus puissants accélérateurs jamais construits.
Pour interpréter correctement les flux de particules mesurés dans l’espace, les astrophysiciens vont ensuite s’appuyer sur des simulations numériques intégrant les données issues de ces expériences de spallation. Or, pour beaucoup de ces réactions nucléaires, la section efficace – c’est-à-dire la probabilité que la réaction se produise dans un sens ou dans un autre – souffre d’une incertitude typique de 20 %, et parfois bien davantage. Une précision devenue très insuffisante au regard de la qualité des nouvelles données astrophysiques. Cette situation limite fortement les conclusions que l’on peut tirer des observations, notamment sur la source des rayons cosmiques ou leur transport. Typiquement, cette incertitude empêche de déterminer avec certitude si certaines anomalies dans les flux d’antiprotons ou d’anti-noyaux pourraient être la signature indirecte de la matière noire, ou simplement le résultat mal connu de réactions nucléaires ordinaires. Une seule solution : amasser des données d’une précision accrue.
C’est ce que préconise la feuille de route proposée par le collectif de scientifiques dans Physics Report, mais en adoptant une approche pragmatique et réaliste. « Il ne s’agit pas de mesurer tout, partout, tout le temps. Ce serait parfaitement irréaliste compte tenu du nombre colossal de réactions possibles. Nous avons cherché à identifier précisément les réactions dont l’impact scientifique et applicatif est le plus fort, pour les prioriser » explique David Maurin, chercheur au LPSC et principal coordinateur de la feuille de route.
Les auteurs ont ainsi mené un travail systématique pour hiérarchiser les besoins : quelles réactions nucléaires dominent les incertitudes sur les flux de rayons cosmiques ? Quelles mesures permettraient un gain immédiat dans la recherche de matière noire ? Ces priorités sont synthétisées sous forme de recommandations opérationnelles, directement exploitables par les équipes expérimentales.
Si les apports pour le domaine des astroparticules sont certains, ils ne sont pas limités à celui-ci : des progrès tangibles en matière de données nucléaires pourraient nourrir le domaine de la hadronthérapie, une technique médicale par laquelle les tumeurs cancéreuses sont éliminées par le biais de faisceaux d’ions (protons ou carbone, principalement), ou encore dans le domaine spatial, pour évaluer les doses de rayonnement reçues par les astronautes lors de missions de longue durée.
Marie Vanstalle, chercheuse à l’IPHC qui a contribué la feuille de route, explique : « Dans ces contextes, des simulations statistiques, dites Monte-Carlo, jouent un rôle central pour estimer les doses déposées dans les tissus biologiques ou derrière des blindages. Cependant, nos modèles sont pénalisés par un manque de données expérimentales fiables aux énergies pertinentes. Il est nécessaire de réduire les incertitudes introduites par cette carence en données pour améliorer l’optimisation des traitements en hadronthérapie et des blindages en radioprotection spatiale ».
Le message passé par le collectif de scientifiques à la communauté des expérimentateurs, des astroparticules au domaine médical, est d’autant plus audible qu’aucune nouvelle infrastructure majeure n’est nécessaire : les mesures envisagées peuvent être réalisées dans des installations existantes, qu’il s’agisse d’installations à vocation médicale (comme le CNAO italien, ou bien le CAL, le CPO, ou Cyclhad en France), dédiées à la physique nucléaire (principalement le GSI, en Allemagne) ou de physique des particules (en premier lieu le CERN, à la frontière franco-suisse), en adaptant ou en détournant des détecteurs déjà en place.
« Sur les accélérateurs majeurs, qui nous permettent de récolter ces données précieuses, le temps de faisceau est limité et la concurrence entre expériences est souvent rude. La priorité est naturellement donnée à des mesures qui valorisent au mieux les performances de ces installations, par exemple celles basées sur des noyaux exotiques, ou recherchant des particules très rares. Il était donc essentiel de disposer d’arguments forts et bien structurés pour faire valoir l’utilité de ces mesures auprès d’installations de pointe telles que GSI ou le CERN, afin de faire progresser notre compréhension des phénomènes stellaires et la performance de traitements médicaux », explique Laurent Audouin, chercheur à IJCLab, qui a participé à la rédaction de la feuille de route.
Une stratégie qui porte déjà ses fruits : « Nous avons été déjà contactés par des équipes un peu partout dans le monde, des Etats-Unis à la Chine, pour créer des collaborations autour de la collecte de ces données. La dynamique est très positive, et nous comptons surfer dessus pendant plusieurs années », termine David Maurin.