• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  •  science >> Science >  >> Physique
    Des physiciens des particules s'associent à l'IA pour résoudre les problèmes scientifiques les plus complexes

    Crédit :CC0 Domaine Public

    Expériences au Grand collisionneur de hadrons (LHC), le plus grand accélérateur de particules au monde au laboratoire européen de physique des particules CERN, produisent environ un million de gigaoctets de données par seconde. Même après réduction et compression, les données amassées en seulement une heure sont similaires au volume de données que Facebook collecte en une année entière – trop pour stocker et analyser.

    Heureusement, les physiciens des particules n'ont pas à gérer eux-mêmes toutes ces données. Ils s'associent à une forme d'intelligence artificielle appelée apprentissage automatique qui apprend à effectuer des analyses complexes par elle-même.

    Un groupe de chercheurs, y compris des scientifiques du SLAC National Accelerator Laboratory et du Fermi National Accelerator Laboratory du ministère de l'Énergie, résumer les applications actuelles et les perspectives d'avenir de l'apprentissage automatique en physique des particules dans un article publié aujourd'hui dans La nature .

    "Par rapport à un algorithme informatique traditionnel que nous concevons pour faire une analyse spécifique, nous concevons un algorithme d'apprentissage automatique pour comprendre par lui-même comment faire diverses analyses, nous faisant potentiellement économiser d'innombrables heures de travail de conception et d'analyse, " dit le co-auteur Alexander Radovic du College of William &Mary, qui travaille sur l'expérience sur les neutrinos NOvA.

    Passer au crible les mégadonnées

    Pour gérer les volumes de données gigantesques produits dans les expériences modernes comme celles du LHC, les chercheurs appliquent ce qu'ils appellent des "déclencheurs" - du matériel et des logiciels dédiés qui décident en temps réel quelles données conserver pour l'analyse et quelles données jeter.

    Dans LHCb, une expérience qui pourrait expliquer pourquoi il y a tellement plus de matière que d'antimatière dans l'univers, les algorithmes d'apprentissage automatique prennent au moins 70 % de ces décisions, dit Mike Williams, scientifique de LHCb du Massachusetts Institute of Technology, l'un des auteurs du résumé Nature. "L'apprentissage automatique joue un rôle dans presque tous les aspects des données de l'expérience, des déclencheurs à l'analyse des données restantes, " il dit.

    L'apprentissage automatique s'est avéré extrêmement efficace dans le domaine de l'analyse. Les gigantesques détecteurs ATLAS et CMS du LHC, qui a permis la découverte du boson de Higgs, chacun possède des millions d'éléments de détection dont les signaux doivent être rassemblés pour obtenir des résultats significatifs.

    « Ces signaux constituent un espace de données complexe, " dit Michael Kagan du SLAC, qui travaille sur ATLAS et a également été auteur de la revue Nature. "Nous devons comprendre la relation entre eux pour tirer des conclusions, par exemple qu'une certaine trace de particules dans le détecteur a été produite par un électron, un photon ou autre chose."

    Les expériences sur les neutrinos bénéficient également de l'apprentissage automatique. Nova, qui est géré par Fermilab, étudie comment les neutrinos passent d'un type à un autre lorsqu'ils voyagent à travers la Terre. Ces oscillations de neutrinos pourraient potentiellement révéler l'existence d'un nouveau type de neutrinos que certaines théories prédisent comme étant une particule de matière noire. Les détecteurs de NOvA surveillent les particules chargées produites lorsque les neutrinos frappent le matériau du détecteur, et les algorithmes d'apprentissage automatique les identifient.

    Du machine learning au deep learning

    Développements récents en apprentissage automatique, souvent appelé « apprentissage en profondeur, " promettent de pousser encore plus loin les applications en physique des particules. L'apprentissage profond fait généralement référence à l'utilisation de réseaux de neurones :des algorithmes informatiques avec une architecture inspirée du réseau dense de neurones du cerveau humain.

    Ces réseaux neuronaux apprennent par eux-mêmes à effectuer certaines tâches d'analyse au cours d'une période d'entraînement au cours de laquelle des exemples de données leur sont présentés, comme les simulations, et a dit à quel point ils ont bien performé.

    Jusque récemment, le succès des réseaux neuronaux a été limité car les entraîner était très difficile, dit le co-auteur Kazuhiro Terao, un chercheur du SLAC travaillant sur l'expérience neutrino MicroBooNE, qui étudie les oscillations des neutrinos dans le cadre du programme neutrinos à base courte du Laboratoire Fermi et deviendra une composante de la future expérience Deep Underground Neutrino (DUNE) à la Long-Baseline Neutrino Facility (LBNF). "Ces difficultés nous ont limités à des réseaux de neurones qui n'avaient que quelques couches de profondeur, " dit-il. " Grâce aux progrès des algorithmes et du matériel informatique, nous savons maintenant beaucoup mieux comment construire et former des réseaux plus performants sur des centaines ou des milliers de couches."

    De nombreuses avancées en matière d'apprentissage en profondeur sont dues aux applications commerciales des géants de la technologie et à l'explosion des données qu'elles ont générée au cours des deux dernières décennies. "Nova, par exemple, utilise un réseau de neurones inspiré de l'architecture du GoogleNet, ", dit Radovic. "Cela a amélioré l'expérience d'une manière qui n'aurait pu être réalisée autrement qu'en collectant 30 pour cent de données supplémentaires."

    Un terreau fertile pour l'innovation

    Les algorithmes d'apprentissage automatique deviennent de plus en plus sophistiqués et affinés de jour en jour, ouvrant des opportunités sans précédent pour résoudre des problèmes de physique des particules.

    Bon nombre des nouvelles tâches pour lesquelles ils pourraient être utilisés sont liés à la vision par ordinateur, dit Kagan. "C'est similaire à la reconnaissance faciale, sauf qu'en physique des particules, les traits de l'image sont plus abstraits que les oreilles et le nez."

    Certaines expériences comme NOvA et MicroBooNE produisent des données qui sont facilement traduites en images réelles, et l'IA peut être facilement utilisée pour identifier les caractéristiques qui s'y trouvent. Dans les expériences LHC, d'autre part, les images doivent d'abord être reconstruites à partir d'un ensemble obscur de données générées par des millions d'éléments capteurs.

    "Mais même si les données ne ressemblent pas à des images, nous pouvons toujours utiliser des méthodes de vision par ordinateur si nous sommes capables de traiter les données de la bonne manière, " dit Radovic.

    Un domaine où cette approche pourrait être très utile est l'analyse des jets de particules produits en grand nombre au LHC. Les jets sont des pulvérisations étroites de particules dont les traces individuelles sont extrêmement difficiles à séparer. La technologie de vision par ordinateur pourrait aider à identifier les caractéristiques des jets.

    Une autre application émergente de l'apprentissage en profondeur est la simulation de données de physique des particules qui prédisent, par exemple, ce qui se passe dans les collisions de particules au LHC et peut être comparé aux données réelles. De telles simulations sont généralement lentes et nécessitent une puissance de calcul immense. IA, d'autre part, pourrait faire des simulations beaucoup plus rapidement, complétant potentiellement l'approche traditionnelle.

    « Il y a quelques années à peine, personne n'aurait pensé que les réseaux de neurones profonds pouvaient être entraînés à « halluciner » des données à partir de bruits aléatoires, " dit Kagan. " Bien que ce soit un travail très précoce, il est très prometteur et peut aider à relever les défis des données du futur."

    Bénéficier d'un scepticisme sain

    Malgré toutes les avancées évidentes, les passionnés de machine learning sont souvent confrontés au scepticisme de leurs partenaires de collaboration, en partie parce que les algorithmes d'apprentissage automatique fonctionnent principalement comme des « boîtes noires » qui fournissent très peu d'informations sur la façon dont ils sont parvenus à une certaine conclusion.

    "Le scepticisme est très sain, " dit Williams. " Si vous utilisez l'apprentissage automatique pour les déclencheurs qui suppriment les données, comme nous le faisons dans LHCb, alors vous voulez être extrêmement prudent et mettre la barre très haut."

    Par conséquent, L'établissement de l'apprentissage automatique en physique des particules nécessite des efforts constants pour mieux comprendre le fonctionnement interne des algorithmes et pour effectuer des recoupements avec des données réelles dans la mesure du possible.

    "Nous devrions toujours essayer de comprendre ce que fait un algorithme informatique et toujours évaluer son résultat, " dit Terao. " C'est vrai pour chaque algorithme, non seulement l'apprentissage automatique. Donc, être sceptique ne devrait pas arrêter le progrès."

    Les progrès rapides font rêver certains chercheurs à ce qui pourrait devenir possible dans un avenir proche. "Aujourd'hui, nous utilisons principalement l'apprentissage automatique pour trouver des fonctionnalités dans nos données qui peuvent nous aider à répondre à certaines de nos questions, " dit Terao. " Dans dix ans, les algorithmes d'apprentissage automatique peuvent être capables de poser leurs propres questions de manière indépendante et de reconnaître quand ils trouvent une nouvelle physique. »

    © Science https://fr.scienceaq.com