La collaboration Extreme-Horizon, menée par des équipes du CEA, du CNRS, de Sorbonne Université et de l'Université Paris-Saclay, vient de rendre publics les résultats d'une simulation inédite de l'évolution des structures cosmiques formées des galaxies et trous noirs supermassifs. Ils vont nous aider à percer les secrets de la matière et de l'énergie noire.
Le prix Nobel de physique 2019 a notamment récompensé James Peebles, le grand cosmologiste d'origine canadienne à qui l'on doit des travaux de pionnier concernant le modèle standard en cosmologie. Il fut en effet l'un des premiers à être lucide sur la nécessité de réintroduire la constante cosmologique d'Einstein produisant une accélération de l'expansion du cosmos observable, telle qu'elle a été découverte à la fin des années 1990. Cette constante peut s'expliquer par la présence d'une mystérieuse énergie noire dont la densité dominerait actuellement celle, moyenne, occupant un suffisamment grand volume d'espace pour que la distribution des galaxies soit homogène, à l'instar des molécules d'un fluide que l'on peut considérer comme continu.
Nous ne connaissons pas la nature de cette constante cosmologique, même si bien des hypothèses crédibles ont été avancées à son sujet. Nous ne connaissons pas non plus la nature de la seconde composante de la densité de masse moyenne du volume d'espace précédent, la matière noire. Là aussi, les hypothèses ont été multipliées et nous n'avons toujours pas réussi à faire de détections directes ou indirectes des particules de matière noire, que ce soit avec le LHC sur Terre, AMS dans l’espace ou encore Xenon 1T sous-terre. Pire, il se pourrait que ni l'énergie noire ni la matière noire n'existent. On arrive par exemple à remplacer la présence des particules de matière noire par une modification des équations de la mécanique céleste newtonienne dans le cadre de la théorie MOND. Pourtant, les chercheurs continuent de favoriser le modèle de la matière noire froide, pourquoi ?
Le vieux problème des biais d'observation en astronomie Commençons par rappeler que même du temps des succès prodigieux de la mécanique céleste dans les mains de Lagrange, Gauss, Laplace et Le Verrier, les calculs sur les mouvements des planètes, des comètes et des astéroïdes, qui ont notamment mené à la découverte de Neptune, ne reposaient sur aucune connaissance de la composition des astres. Il n'y avait pour autant aucune raison de douter de leur présence et du fait qu'ils possédaient une masse comme les objets connus sur Terre.
Dès ces époques héroïques, les astronomes savaient aussi qu'il fallait tenir compte d'effets influençant la propagation de la lumière dans un milieu entre ces astres et leurs instruments. La lumière est en effet réfractée par l'atmosphère de la Terre et ce d'autant plus qu'on observe un objet proche de l'horizon, ce qui affecte donc les mesures d'angles et de positions sur la voûte céleste, mesures à la base de toute l'astronomie. Les astronomes modernes sont allés beaucoup plus loin. Ils savent qu'il faut tenir compte de plusieurs perturbations dont il faut corriger les effets, qui se produisent lors du voyage de la lumière entre leurs sources et nous. Il y a, par exemple, des effets d'absorption par la poussière stellaire pour la lumière et les effets des champs magnétiques chaotiques sur les trajectoires des particules de matière chargées, rendant difficile l'identification d'une source.
Pour développer et tester le modèle standard, les cosmologistes ont donc entrepris de faire des simulations numériques puissantes des conséquences des modèles de matière et d'énergie noire, sur la naissance et l'évolution des galaxies et des grandes structures qui les rassemblent depuis la fin du Big Bang jusqu'à nos jours. Selon les hypothèses sur la matière noire et l'énergie noire, cette évolution n'est pas la même. Et en fouillant les strates de lumière de la mémoire du cosmos observable, en remontant de plus en plus loin dans le passé et en mesurant l'état des galaxies, il est donc en théorie possible de départager ces hypothèses en confrontant observations et prédictions théoriques.
Des théories cosmologiques testables en combinant simulations et observations De nombreuses simulations numériques à ce sujet ont ainsi vu le jour au cours des dernières décennies. Futura vous avait déjà parlé de l'une d'entre elles dans le précédent article ci-dessous il y a huit ans, celle effectuée par le consortium DEUS (Dark Energy Universe Simulation) dont le cœur est une équipe de chercheurs du Laboratoire Univers et Théories (LUTH, Observatoire de Paris/CNRS/Université Paris Diderot). Une autre, réalisée par la collaboration Extreme-Horizon menée par des équipes du CEA, du CNRS, de Sorbonne Université et de l'Université Paris-Saclay, vient d'occuper récemment le devant de la scène comme le prouvent deux publications dans MNRAS et A&A Letters que l'on peut trouver sur arXiv.
Comme il y a huit ans, elle a été rendue possible par le supercalculateur Joliot-Curie, basé sur l'architecture BullSequana et conçu par la société Atos pour le Genci (Grand équipement national de calcul intensif). Elle a nécessité l'équivalent de cinquante millions d'heures de calcul et selon le communiqué du CEA à son sujet, il s'agit d'« une simulation inédite de l'évolution des structures cosmiques - galaxies, étoiles et trous noirs supermassifs - qui débute quelques instants après le Big-Bang et se poursuit jusqu'à aujourd'hui. Les régions intergalactiques qui représentent 90 % du volume de l'Univers y sont décrites avec une résolution sans précédent ».
Et le communiqué d'ajouter que : « Le volume de données numériques traitées a dépassé 3 To (pour mémoire 1 To = 1012 octets) à chaque pas du calcul, justifiant la mise en œuvre de nouvelles techniques d'écriture (code numérique à raffinement adaptatif de maille RAMSES) et de lecture des données de simulation ».
Source : https://www.futura-sciences.com/sciences/actualites/cosmologie-extreme-horizon-nouvelle-simulation-mysteres-univers-noir-38109/
Comments