Nuages peu profonds formés par des tourbillons à petite échelle comme observés dans la nature. Les chercheurs utilisent l'informatique avancée pour ajouter une dynamique de nuage à plus haute résolution dans des simulations globales. Crédit :Creative commons
Nous entendons beaucoup parler de la façon dont le changement climatique modifiera la terre, la mer et la glace. Mais comment cela affectera-t-il les nuages ?
"Les nuages bas pourraient s'assécher et rétrécir comme les calottes glaciaires", explique Michael Pritchard, professeur de sciences du système terrestre à l'UC Irvine. "Ou ils pourraient s'épaissir et devenir plus réfléchissants."
Ces deux scénarios se traduiraient par des climats futurs très différents. Et cela, dit Pritchard, fait partie du problème.
"Si vous demandez à deux modèles climatiques différents à quoi ressemblera l'avenir lorsque nous ajouterons beaucoup plus de CO2 , vous obtenez deux réponses très différentes. Et la principale raison en est la façon dont les nuages sont inclus dans les modèles climatiques."
Personne ne nie que les nuages et les aérosols - des morceaux de suie et de poussière qui nucléent les gouttelettes de nuages - sont une partie importante de l'équation climatique. Le problème est que ces phénomènes se produisent sur une échelle de temps et de durée que les modèles actuels sont loin de reproduire. Ils sont donc inclus dans les modèles à travers une variété d'approximations.
Les analyses des modèles climatiques mondiaux montrent systématiquement que les nuages constituent la plus grande source d'incertitude et d'instabilité.
Réoutillage des codes communautaires
Alors que le modèle climatique mondial américain le plus avancé a du mal à approcher la résolution globale de 4 kilomètres, Pritchard estime que les modèles ont besoin d'une résolution d'au moins 100 mètres pour capturer les tourbillons turbulents à petite échelle qui forment des systèmes de nuages peu profonds - 40 fois plus résolus dans chaque direction. Cela pourrait prendre jusqu'en 2060, selon la loi de Moore, avant que la puissance de calcul soit disponible pour capturer ce niveau de détail.
Pritchard s'efforce de combler cette lacune flagrante en divisant le problème de modélisation climatique en deux parties :un modèle planétaire à grain grossier et à résolution inférieure (100 km) et de nombreuses petites parcelles avec une résolution de 100 à 200 mètres. Les deux simulations s'exécutent indépendamment, puis échangent des données toutes les 30 minutes pour s'assurer qu'aucune des simulations ne dévie ni ne devienne irréaliste.
Son équipe a rapporté les résultats de ces efforts dans le Journal of Advances in Modeling Earth Systems en avril 2022.
Cette méthode de simulation climatique, appelée "Multiscale Modeling Framework (MMF)", existe depuis 2000 et a longtemps été une option au sein du modèle Community Earth System Model (CESM), développé au National Center for Atmospheric Research. L'idée a récemment connu une renaissance au Département de l'énergie, où les chercheurs du modèle de système terrestre exascale énergétique (E3SM) l'ont poussée vers de nouvelles frontières informatiques dans le cadre du projet de calcul exascale. Le co-auteur de Pritchard, Walter Hannah du laboratoire national Lawrence Livermore, aide à diriger cet effort.
"Le modèle contourne le problème le plus difficile - la modélisation de la planète entière", a expliqué Pritchard. "Il a des milliers de petits micromodèles qui capturent des choses comme la formation réaliste de nuages peu profonds qui n'émergent qu'en très haute résolution."
« L'approche du cadre de modélisation multi-échelle est également idéale pour les prochains ordinateurs exascale basés sur GPU du DOE », a déclaré Mark Taylor, scientifique en chef du calcul pour le projet Energy Exascale Earth System Model (E3SM) du DOE et chercheur aux Sandia National Laboratories. "Chaque GPU a la puissance nécessaire pour exécuter des centaines de micromodèles tout en respectant le débit du modèle planétaire à faible résolution et à grain grossier."
La recherche et la nouvelle approche de Pritchard sont rendues possibles en partie par le supercalculateur Frontera financé par la NSF au Texas Advanced Computing Center (TACC). Le supercalculateur universitaire le plus rapide au monde, Pritchard peut exécuter ses modèles sur Frontera à une échelle de temps et de durée accessible uniquement sur une poignée de systèmes aux États-Unis et tester leur potentiel de modélisation dans le cloud.
"Nous avons développé un moyen pour un supercalculateur de répartir au mieux le travail de simulation de la physique des nuages sur différentes parties du monde qui méritent différentes résolutions… afin qu'il fonctionne beaucoup plus rapidement", a écrit l'équipe.
Simulating the atmosphere in this way provides Pritchard the resolution needed to capture the physical processes and turbulent eddies involved in cloud formation. The researchers showed that the multi-model approach did not produce unwanted side effects even where patches using different cloud-resolving grid structures met.
"We were happy so see that the differences were small," he said. "This will provide new flexibility to all users of climate models who want to focus high resolution in different places."
Disentangling and reconnecting the various scales of the CESM model was one challenge that Pritchard's team overcame. Another involved reprogramming the model so it could take advantage of the ever-increasing number of processors available on modern supercomputing systems.
Pritchard and his team—UCI postdoctoral scholar Liran Peng and University of Washington research scientist Peter Blossey—tackled this by breaking the inner domains of the CESM's embedded cloud models into smaller parts that could be solved in parallel using MPI, or message passing interface—a way of exchanging messages between multiple computers running a parallel program across distributed memory—and orchestrating these calculations to use many more processors.
"Doing so seems to already provide a four-time speed-up with great efficiency. That means, I can be four times as ambitious for my cloud-resolving models," he said. "I'm really optimistic that this dream of regionalizing and MPI decomposing is leading to a totally different landscape of what's possible."
Machine learning clouds
Pritchard sees another promising approach in machine learning, which his team has been exploring since 2017. "I've been very provoked by how performantly a dumb sheet of neurons can reproduce these partial differential equations," Pritchard said.
Pritchard's research and new approach is made possible in part by the NSF-funded Frontera supercomputer at TACC. The fastest university supercomputer in the world, Pritchard can run his models on Frontera at a time and length-scale accessible only on a handful of systems in the U.S. and test their potential for cloud modeling.
In a paper submitted last fall, Pritchard, lead author Tom Beucler, of UCI, and others describe a machine learning approach that successfully predicts atmospheric conditions even in climate regimes it was not trained on, where others have struggled to do so.
This "climate invariant" model incorporates physical knowledge of climate processes into the machine learning algorithms. Their study—which used Stampede2 at TACC, Cheyenne at the National Center for Atmospheric Research, and Expanse at the San Diego Supercomputer Center—showed the machine learning method can maintain high accuracy across a wide range of climates and geographies.
"If machine learning high-resolution cloud physics ever succeeded, it would transform everything about how we do climate simulations," Pritchard said. "I'm interested in seeing how reproducibly and reliably the machine learning approach can succeed in complex settings."
Pritchard is well-positioned to do so. He is on the Executive Committee of the NSF Center for Learning the Earth with Artificial Intelligence and Physics, or LEAP—a new Science and Technology Center, funded by NSF in 2021 directed by his long-time collaborator on this topic, Professor Pierre Gentine. LEAP brings together climate and data scientists to narrow the range of uncertainty in climate modeling, providing more precise and actionable climate projections that achieve immediate societal impact.
"All of the research I've done before is what I would call 'throughput-limited.'" Pritchard said. "My job was to produce 10- to 100-year simulations. That constrained all my grid choices. However, if the goal is to produce short simulations to train machine learning models, that's a different landscape."
Pritchard hopes to soon use the results of his 50 meter embedded models to start building up a large training library. "It's a really nice dataset to do machine learning on."
But will AI mature fast enough? Time is of the essence to figure out the destiny of clouds.
"If those clouds shrink away, like ice sheets will, exposing darker surfaces, that will amplify global warming and all the hazards that come with it. But if they do the opposites of ice sheets and thicken up, which they could, that's less hazardous. Some have estimated this as a multi-trillion dollar issue for society. And this has been in question for a long time," Pritchard said.
Simulation by simulation, federally-funded supercomputers are helping Pritchard and others approach the answer to this critical question.
"I'm torn between genuine gratitude for the U.S. national computing infrastructure, which is so incredible at helping us develop and run climate models," Pritchard said, "and feeling that we need a Manhattan Project level of new federal funding and interagency coordination to actually solve this problem."