GT3 : Questionnement

Quelles sont les nouvelles frontières dans la description microscopique des noyaux ?

Ce groupe de travail porte sur les fondations théoriques de la physique nucléaire, en couvrant les méthodes de résolution « ab initio » du problème à N corps, les liens qui existent avec la théorie QCD régissant leurs constituants et leurs interactions au sein des neutrons et des protons, ainsi que les approches plus phénoménologiques permettant d’effectuer des calculs là où les approches « ab initio » échouent. Ces dernières approches sont à ce jour souvent encore les seules capables d’être utilisées dans l’analyse des observations expérimentales. En outre, elles peuvent aussi inspirer les approches plus fondamentales, soit pour guider une hiérarchisation de phénomènes, soit pour calibrer ces dernières approches. Il existe donc une complémentarité entre les approches fondamentales et phénoménologiques que ce GT explorera. L’objectif de ce GT est donc de faire émerger des modèles théoriques permettant d’approcher avec une meilleure fiabilité les extrêmes de la carte des noyaux, vers les noyaux riches en protons ou en neutrons ainsi que vers les noyaux super-lourds, ainsi que d’améliorer la fiabilité des prédictions théoriques pour les propriétés des étoiles compactes. D’immenses progrès ont été réalisés cette dernière décennie, notamment en France, et de nombreux défis demandent encore à être relevés tant du point de vue de la formalisation des interactions que de la résolution du problème à N corps quantique.

La théorie accompagne très souvent l’analyse expérimentale, voir observationnelle, des systèmes nucléaires, et les GT 1, 2 et 3 rassemblent déjà de nombreuses questions à leur interface. Cependant, certaines questions théoriques, par leurs technicités ou bien par leurs liens avec d’autres disciplines, par exemple la chimie quantique ou la matière condensée, nécessitent un espace de discussion propre. Ce GT a donc pour objectif de permettre des discussions approfondies sur les fondations théoriques de la physique nucléaire et, plus largement, de ses liens avec le problème à N corps. Ce GT, principalement composé de théoriciens travaillant sur le noyau atomique, agrège donc également des chimistes quantiques et des physiciens travaillant sur les gaz d’atomes froids.

Les questions qui seront abordées dans ce GT sont détaillées ci-dessous.

Peut-on relier l’interaction nucléaire effective (à deux, trois et peut-être plus de corps) directement à la QCD ?

Des progrès considérables ont été effectués ces 15 dernières années sur le lien entre les modèles utilisés en physique nucléaire et la théorie chromodynamique quantique (QCD) sous-jacente, grâce notamment à la formalisation de la théorie effective des champs avec, ou sans, pion. Cette avancée résout l’une des plus grandes difficultés liées à l’interaction nucléaire de basse énergie, qui se trouvent dans le régime non-perturbatif de la QCD. Elle permet aussi d’établir une connexion avec la méthode de résolution sur réseau de QCD. Cette dernière permet maintenant d’effectuer des calculs directs des propriétés nucléaires pour des masses arbitrairement petites des quarks. La précision de ces données rend possible de les substituer aux véritables données expérimentales (à la masse physique des quarks), et de les utiliser pour calibrer de nouvelles théories effectives. La liberté de varier la masse des quarks de façon théorique peut permettre d’étudier dans quelle mesure certaines propriétés nucléaires (comme par exemple l’état de Hoyle du 12C) sont liées à ce paramètre. Par ailleurs, on peut se demander si les propriétés nucléaires émergent directement des interactions élémentaires entre les nucléons ponctuels ou s’il est plus adapté d’incorporer de nouveaux degrés de liberté dans la théorie effective des champs actuelle. On pense notamment à l’excitation nucléonique Delta, mais cette réflexion est plus générale et comprend celle de l’identification des degrés de liberté pertinents des théories effectives. Peut-on hiérarchiser ces degrés de liberté en fonction d’un niveau de précision attendu, ou bien de la masse des noyaux ou encore de leur asymétrie d’isospin ?

Comment étendre le domaine d’application des méthodes « ab-initio » ?

Les physiciens Français sont très avancés dans le développement et l’application de méthodes « ab initio » de résolution exacte de systèmes à peu de corps (4 ou 5 particules). Ces méthodes permettent aujourd’hui de prédire de façon cohérente les propriétés de structure et de réaction de noyaux très légers. L’extension de ces méthodes pour des noyaux plus lourds à un coût « exponentiel » que les moyens numériques actuels ne peuvent à priori pas supporter. Pour repousser ce « plafond de verre », des méthodes « ab initio » à coût « polynomial » ont été développées et implémentées ces 15 dernières années, notamment en France, permettant ainsi d’atteindre la région de masse 70. Ces méthodes restent cependant limitées en masse et essentiellement restreintes aux propriétés de structure. Au final, il semble pertinent d’envisager l’extension des méthodes « ab initio » dans les trois voies suivantes : extension en masse, calculs de réactions au-delà des noyaux légers, extension de ces méthodes au degré de liberté d’étrangeté.

Dans les prochaines années, on peut envisager de développer et/ou utiliser des méthodes d’approximations permettant un gain de temps (CPU) et en place mémoire. En effet, la place mémoire associée au stockage des éléments de matrice d’interactions à 3 corps constituent actuellement la limite principale à l’extension des calculs « ab initio » aux noyaux au-delà de la masse 100. En formulant le problème nucléaire de basse énergie en termes de degrés de liberté moins élémentaires ou en ne résolvant explicitement le problème à A corps que dans un sous espace de Hilbert de l’espace complet à A corps, on peut également envisager de calibrer des approches effectives sur les calculs « ab initio » existants. Une telle approche permettrait de faire le lien avec des approches plus phénoménologiques utilisées aujourd’hui jusque dans les noyaux lourds et dont les hypothèses nécessitent d’être vérifiées.

Est-ce que la résolution de l’équation de Schrödinger peut être découplée de la modélisation des interactions élémentaires entre nucléons ?

Un grand nombre des enjeux relatifs à la résolution de l’équation de Schrödinger sont, en première approximation, indépendants de l’interaction mise en jeu. Ils sont donc communs à d’autres systèmes quantiques mésoscopiques, i.e. les atomes froids ou bien les molécules chimiques.

En théorie quantique des champs, les interactions sont toujours définies dans un espace-modèle précis, tout comme le sont les méthodes de résolution de l’équation de Schrödinger. Peut-on donc vraiment découpler l’interaction et la méthode de résolution du problème à N corps ? Selon la proposition canonique formulée par Weinberg, les systèmes nucléaires à plus de 1 nucléons doivent effectivement être traités en deux temps ; i.e. i) la construction d’un Hamiltonien à N corps et ii) la résolution non-perturbative de l’équation de Schrödinger. Cependant, de sérieuses difficultés, qu’il apparait de plus en plus inévitable d’affronter, sont apparues dans ce contexte. Aujourd’hui, plusieurs propositions transformant en profondeur les méthodes de résolution du problème quantique à N corps sont sur le point d’émerger et méritent d’être d’étudiées en profondeur.

En particulier, les systèmes « à couche(s) ouverte(s) » au-delà des noyaux légers offrent un terrain d’application des techniques du problème à N corps qui sont partagées, par exemple, avec la chimie quantique. Ces questions se concentrent autour des corrélations, laissant de coté celles liées à l’interaction elle-même. Tandis que les noyaux « à couches fermées » ne mettent en jeu que des corrélations « dynamiques » efficacement captées par une somme limitée d’excitations « particules-trous » basées sur un état de particules indépendantes et respectant les symétries du système, les noyaux « à couches ouvertes » nécessitent l’inclusion de « corrélations statiques » qu’il est difficile, voire impossible, de traiter efficacement de la même façon. Il s’agit de développer de nouvelles méthodes permettant de simplifier cette complexité, largement indépendante des détails de l’interaction. Malgré de nombreux efforts, l’inclusion combinée et cohérente de ces deux types de corrélations reste aujourd’hui un challenge majeur et commun en physique nucléaire et en chimie quantique, mais aussi pour d’autres systèmes quantique mesoscopiques fortement corrélés.

La théorie effective la plus appropriée aux systèmes nucléaires doit-elle s’organiser autour de la « limite d’unitarité » ?

Tout comme les gaz d’atomes froids proches de la résonance de Feshbach, l’interaction nucléaire a la particularité d’avoir une longueur de diffusion large par rapport à l’échelle donnée par son médiateur le plus étendu (le pion). Cette propriété dite d’unitarité devrait se comprendre grâce à la QCD, mais il s’agit plutôt ici de l’utiliser habilement pour la compréhension des propriétés des systèmes nucléaires. En outre, la limite d’unitarité est universelle aux systèmes à N corps. Les gaz d’atomes froids sont donc considérés comme des « simulateurs quantiques » qui permettent d’apporter les réponses aux questions que se posent les physiciens nucléaires dans des contextes variés, allant de la nature de l’interaction nucléaire aux prédictions de l’équation d’état de la matière dense. La manipulation des gaz atomes froids est ainsi un outil extrêmement puissant pour simuler des situations complexes du problème à N corps. Par exemple, en couplant ces gaz avec l’interférométrie laser, on peut envisager de réaliser des systèmes équivalents à la matière clusterisée de l’écorce des étoiles à neutrons et d’en déduire directement les propriétés de transport qui sont très difficile à prédire avec les théories actuelles.

Peut-on réellement ignorer la relativité en physique nucléaire ?

La masse élevée des nucléons fournit une justification aisée à la formulation non-relativiste de la physique nucléaire de basse énergie. Pourtant l’interaction spin-orbite nécessaire à la bonne reproduction des données nucléaires, en particulier des effets de couches, est une manifestation directe des propriétés relativistes du nucléon. En outre aux densités de la matière élevées des supernovae et des étoiles compactes, la nature relativiste des nucléons ne peut plus être ignorée. Une connexion entre la physique de basse énergie, et sa formulation en théorie effective des champs, et la théorie des champs relativistes, est donc nécessaire pour sonder la matière nucléaire aux extrêmes du diagramme de phase.

Comment étendre le domaine d’application du modèle en couche à des noyaux de masse plus lourde ?

Actuellement les approches de types « modèles en couches » restent très adaptées à la description des observables de basses excitations dans la mesure où elles permettent la description simultanée de toutes les propriétés du noyau (déformation ET durée de vie β par exemple). L’applicabilité sur toute la charte des noyaux reste cependant délicate avec l’explosion exponentielle des dimensions des bases à traiter par diagonalisation classique. Plusieurs voies sont possibles pour contourner ces difficultés numériques et étendre le domaine d’applicabilité à des régions de masse plus lourdes. Une première possibilité réside dans l’utilisation des techniques de perturbations pour ce qui est du Hamiltonien (opérateurs à 3 corps) et des opérateurs (à 2 corps) associés aux espaces de valence. La seconde consiste en l’application de méthodes de champ moyen à la base du modèle en couches, en particulier pour la description des systèmes déformés. Les passerelles avec d’autres aspects contenus dans ce GDR comme ceux relatifs à la théorie de la fonctionnelle de la densité existent et sont à développer. Enfin quelles que soient les solutions techniques utilisées, les interfaces avec les approches ab-initio sont naturelles quant à l’utilisation d’Hamiltoniens effectifs déduits de théories effectives des champs.

Quelle est la meilleure théorie de la « fonctionnelle de la densité » pour décrire la carte des noyaux ? Quels sont les nouveaux noyaux à mesurer pour améliorer la prédictivité des approches fonctionnelles ?

Les approches basées sur des fonctionnelles de la densité sont les seules à ce jour à pouvoir prédire les propriétés des noyaux de masse intermédiaire aux noyaux super-lourds, ce qui représente la grande majorité des noyaux. Ces approches permettent en outre de prédire l’équation d’état de la matière nucléaire. Elles font donc le lien entre les analyses expérimentales et la prédiction du diagramme de phase de la matière nucléaire autour de la densité de saturation. L’existence d’une fonctionnelle reproduisant les propriétés nucléaires est acquise du point de vue théorique, mais sa détermination reste du domaine de l’exégèse empirique. La sélection des couplages ou des vertex relativistes pertinents est souvent complexe, et nécessite en outre, un cadre théorique adapté aux comparaisons avec les données expérimentales (masses, rayons, modes collectifs, paramètres empiriques, etc…). Quel est le meilleur cadre théorique pour déterminer la fonctionnelle nucléaire ? Cette fonctionnelle est-elle universelle ? Quels sont les nouveaux noyaux qui permettront d’améliorer la prédictivité de ces approches ? Quelles sont les propriétés de ces noyaux à mesurer pour mieux contraindre l’équation d’état de la matière dense ? Est-ce que des méthodes statistiques, telle que l’inférence Bayesienne, peuvent orienter les analyses expérimentales et théoriques et faire le lien avec les contraintes nécessaires aux observations astrophysiques ?