• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  •  Science >> Science >  >> La nature
    L'optimisation du flux de données sismiques permet la recherche scientifique sur The Big One
    Crédit :Wilson Malone de Pexels

    Personne ne peut prédire avec précision quand un tremblement de terre se produira. Depuis le séisme de Northridge d'une magnitude de 6,7 en 1994 dans le comté de Los Angeles, qui a causé 72 morts, 9 000 blessés et 25 milliards de dollars de dégâts, la Californie du Sud attend avec impatience « The Big One » :un séisme dévastateur prévu d'au moins une magnitude de 7,8 et 44 fois plus fort. Les sismologues peuvent seulement dire que cela pourrait se produire dans les 30 prochaines années.



    Même si les scientifiques ne peuvent pas prévoir quand et où les tremblements de terre se produiront, la préparation est essentielle pour améliorer la résilience de la société face aux grands tremblements de terre. En particulier, le Statewide California Earthquake Center (SCEC), basé à l'USC, a développé CyberShake, une plate-forme informatique qui simule des centaines de milliers de tremblements de terre pour calculer des modèles régionaux de risque sismique.

    Révélant les zones géographiques du sud de la Californie les plus exposées à des secousses intenses, ses résultats ont influencé les codes du bâtiment de Los Angeles et la conception des modèles de tremblements de terre de l'US Geological Survey, la plus grande agence de cartographie des sciences terrestres et géologiques du pays.

    Les études CyberShake – et une grande partie de la science moderne, cependant – sont très gourmandes en données et en calcul. Avec des calculs en plusieurs étapes qui alimentent de nombreuses tâches informatiques interconnectées exécutées sur des superordinateurs locaux et nationaux pour simuler 600 000 tremblements de terre différents, le flux de travail scientifique de CyberShake est complexe. L'Institut des sciences de l'information (ISI) de l'USC Viterbi héberge les outils nécessaires pour générer et gérer des données aussi massives.

    Ewa Deelman, professeure-chercheuse en informatique et directrice de recherche à l'ISI, conçoit et met à jour en permanence, depuis 2000, un système de gestion automatisé des flux de travail appelé Pegasus.

    Flux de travail optimisés

    Pegasus, nommé d'après Planning for Execution and Grids (PEG) et l'amour de Deelman pour les chevaux, transforme les expériences de recherche en flux de travail optimisés. Il peut être utilisé par des scientifiques dans divers domaines, de la sismologie à la physique en passant par la bioinformatique, en raison de sa conception abstraite.

    Deelman la compare à une recette de cuisine :« Vous pouvez utiliser la même recette dans différentes cuisines. Différents utilisateurs peuvent exécuter la recette (le flux de travail) mais avec leurs propres ustensiles de cuisine (ressources informatiques). Lorsque vous concevez les choses de manière suffisamment large, ils devenir largement applicable."

    En 2016, des scientifiques du Laser Interferometer Gravitational-Wave Observatory (LIGO) ont utilisé Pegasus pour capturer les ondes gravitationnelles dans l'univers, confirmant ainsi la théorie de la relativité générale d'Albert Einstein et remportant le prix Nobel de physique 2017. Au cours de la collaboration de 16 ans entre les informaticiens de l'ISI et les membres du LIGO, le logiciel a géré des milliers de flux de travail avec des millions de tâches.

    Le Collaborative and Adaptive Sensing of the Atmosphere (CASA), un centre de recherche en ingénierie dédié à l'amélioration de la prévision et de la réponse aux conditions météorologiques dangereuses, a également transféré ses pipelines sur Pegasus. Étant donné que les intempéries peuvent ralentir et compromettre les ressources locales et la capacité informatique, le programme envoie les données de CASA vers des infrastructures cloud pour garantir un flux de travail continu.

    Inspiré des comportements animaux

    CyberShake s'appuie sur Pegasus depuis 15 ans, y compris pour sa plus récente étude avec le plus grand ensemble de simulations de tremblements de terre à ce jour. Pegasus a géré 2,5 pétaoctets de données et exécuté 28 120 tâches de flux de travail sur 108 jours pour produire des cartes des risques sismiques en 772 000 nœuds-heures.

    "Sans Pegasus, nous ne pourrions pas réaliser ce genre de science", a déclaré Scott Callaghan, informaticien au SCEC et développeur principal de CyberShake. SCEC étendra CyberShake au nord de la Californie, en utilisant désormais le supercalculateur le plus rapide au monde, Frontier. Pegasus continuera à rester à leurs côtés.

    « Chaque fois que nous effectuons une de ces études, nous sommes toujours confrontés à des défis inattendus. Mais je suis convaincu que, en cas de problèmes de flux de travail, l'équipe Pegasus sera en mesure de nous aider à les résoudre afin que nous puissions continuer à obtenir des informations scientifiques de pointe. c'est fait", a déclaré Callaghan.

    Deelman mène actuellement des recherches et conceptualise SWARM, un autre système de gestion de flux de travail inspiré par la coordination avisée des comportements de groupe parmi les animaux sociaux, comme les fourmis. Elle prévoit également d'améliorer la prise de décision de Pegasus grâce à l'intelligence artificielle, en réinventant la façon dont les systèmes de flux de travail fonctionneront à l'avenir.

    Fourni par l'Université de Californie du Sud




    © Science https://fr.scienceaq.com