• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  •  science >> Science >  >> La nature
    L'IA accélère les calculs climatiques

    Les modèles de circulation générale simulent typiquement le comportement global de l'atmosphère sur des grilles dont les cellules ont des dimensions d'environ 50 km. Mais de nombreux nuages ​​s'étendent sur des distances de quelques centaines de mètres seulement, beaucoup plus petites que les cellules de grille généralement utilisées dans les simulations - et elles sont très dynamiques. Ces deux caractéristiques les rendent extrêmement difficiles à modéliser de manière réaliste. Crédit :Robert Kneschke / fotolia

    Des simulations climatiques réalistes nécessitent d'énormes réserves de puissance de calcul. Une étude LMU montre désormais que de nouveaux algorithmes permettent de modéliser plus rapidement les interactions dans l'atmosphère sans perte de fiabilité.

    La prévision des climats mondiaux et locaux nécessite la construction et le test de modèles climatiques mathématiques. Étant donné que de tels modèles doivent intégrer une pléthore de processus physiques et d'interactions, les simulations climatiques nécessitent d'énormes quantités de puissance de calcul. Et même les meilleurs modèles ont forcément des limites, car les phénomènes impliqués ne peuvent jamais être modélisés de manière suffisamment détaillée. Dans un projet mené dans le cadre du Centre de recherche collaboratif financé par la DFG "Waves to Weather", Stephan Rasp de l'Institut de météorologie théorique du LMU (Directeur :Professeur George Craig) s'est maintenant penché sur la question de savoir si l'application de l'intelligence artificielle peut améliorer l'efficacité de la modélisation climatique. L'étude, qui a été réalisée en collaboration avec le professeur Mike Pritchard de l'Université de Californie à Irvine et Pierre Gentine de l'Université de Columbia à New York, apparaît dans le journal PNAS .

    Les modèles de circulation générale simulent typiquement le comportement global de l'atmosphère sur des grilles dont les cellules ont des dimensions d'environ 50 km. Même en utilisant des superordinateurs de pointe, les processus physiques pertinents qui se déroulent dans l'atmosphère sont tout simplement trop complexes pour être modélisés au niveau de détail nécessaire. Un exemple marquant concerne la modélisation des nuages ​​qui ont une influence cruciale sur le climat. Ils transportent la chaleur et l'humidité, produire des précipitations, ainsi qu'absorber et réfléchir le rayonnement solaire, par exemple. De nombreux nuages ​​s'étendent sur des distances de quelques centaines de mètres seulement, beaucoup plus petites que les cellules de grille généralement utilisées dans les simulations - et elles sont très dynamiques. Ces deux caractéristiques les rendent extrêmement difficiles à modéliser de manière réaliste. Par conséquent, les modèles climatiques actuels manquent d'au moins un ingrédient essentiel, et à cet égard, ne fournissent qu'une description approximative du système Terre.

    Dans la nouvelle étude, Rasp et ses co-auteurs ont utilisé une forme d'apprentissage automatique connue sous le nom de réseaux de neurones pour régler de manière adaptative un algorithme conçu pour capturer le comportement du cloud. L'algorithme a été formé à l'aide de données obtenues à partir de simulations à haute résolution qui incluaient explicitement le transfert de chaleur des nuages. "Après la période de formation, l'algorithme était non seulement capable de reproduire les résultats obtenus à l'échelle fine, modèle de résolution de nuage, mais a fait tellement plus efficacement, " dit Stephan Rasp. Selon George Craig, "L'étude montre que la méthode a le potentiel de décrire des phénomènes complexes plus en détail et promet donc d'améliorer la qualité des simulations climatiques."

    Dans ce premier essai, les auteurs ont utilisé un modèle idéalisé pour tester la faisabilité de l'approche avec une complexité réduite. A l'étape suivante, Râpe, Pritchard et Gentine prévoient d'entraîner l'algorithme avec des données réelles.


    © Science https://fr.scienceaq.com