Crédit :CC0 Domaine public
Pour la première fois, données de LHCb, une grande expérience de physique, seront traités sur une ferme de GPU. Cette solution est non seulement beaucoup moins chère, mais cela aidera à réduire la taille du cluster et à traiter les données à des vitesses allant jusqu'à 40 Tbit/s. Le document de recherche a été publié dans Informatique et logiciels pour la grande science .
Un groupe de travail interdisciplinaire de chercheurs de l'une des plus grandes collaborations internationales en physique des hautes énergies beauté du LHC au CERN a suggéré une nouvelle façon de traiter l'énorme flux de données provenant du détecteur de particules. L'équipe est composée de chercheurs des principales universités européennes et américaines. La partie russe de l'équipe était représentée par HSE et Yandex School of Data Analysis. L'objectif principal de la proposition est de fournir à la collaboration un cadre solide, solution efficace et flexible qui pourrait faire face à l'augmentation du flux de données attendue au cours de la prochaine période de prise de données. Cette solution est non seulement beaucoup moins chère, mais cela aidera à réduire la taille du cluster et à traiter les données à des vitesses allant jusqu'à 40 Tbit/s.
Le LHC et LHCb en particulier ont été créés dans le but de rechercher « une nouvelle physique, " quelque chose au-delà du modèle standard. Bien que la recherche ait obtenu un succès modéré, l'espoir de trouver des particules complètement nouvelles, comme les WIMPs, ont échoué. De nombreux physiciens pensent que pour obtenir de nouveaux résultats, les statistiques sur les collisions de particules au LHC devraient être considérablement augmentées. Mais cela nécessite non seulement de nouveaux équipements d'accélération - des mises à niveau sont actuellement en cours et devraient être achevées d'ici 2021-2022 - mais également de tout nouveaux systèmes pour traiter les données de collision de particules. Pour détecter les événements sur LHCb comme correctement enregistrés, la piste reconstruite doit correspondre à celle modélisée par l'algorithme. S'il n'y a pas de correspondance, les données sont exclues. Environ 70 % de toutes les collisions dans le LHC sont exclues de cette façon, ce qui signifie que de sérieuses capacités de calcul sont nécessaires pour cette analyse préliminaire.
Un groupe de chercheurs, y compris Andrey Ustyuzhanin, Mikhail Belous et Sergei Popov de l'Université HSE, a présenté un nouvel article avec un algorithme d'une ferme de GPU comme premier déclencheur de haut niveau (HLT1) pour l'enregistrement et la détection d'événements sur le détecteur LHCb. Le concept a été nommé Allen, après Frances Allen, chercheuse en théorie des systèmes informatiques et la première femme à avoir reçu le prix Turing.
Contrairement aux déclencheurs précédents, le nouveau système transfère les données des CPU aux GPU. Ceux-ci peuvent inclure à la fois des solutions professionnelles (telles que les GPU Tesla, les plus avancés du marché) et les GPU « gamer » ordinaires de NVIDIA ou AMD. Grâce à ça, la gâchette Allen ne dépend pas d'un fournisseur d'équipement spécifique, ce qui facilite la création et réduit les coûts. Avec les systèmes les plus performants, le déclencheur peut traiter des données jusqu'à 40 Tbit/s.
Dans un schéma standard, les informations sur tous les événements vont du détecteur à un déclencheur de niveau zéro (L0), qui se compose de puces programmables (FPGA). Ils effectuent la sélection au niveau de base. Dans le nouveau régime, il n'y aura pas de déclencheur L0. Les données vont immédiatement à la ferme, où chacun des 300 GPU traite simultanément des millions d'événements par seconde.
Après l'enregistrement et la détection initiaux de l'événement, seules les données sélectionnées contenant des informations physiques précieuses sont transmises aux processeurs x86 ordinaires des déclencheurs de deuxième niveau (HLT2). Cela signifie que la principale charge de calcul liée à la classification des événements se produit exceptionnellement à la ferme au moyen de GPU.
Ce cadre aidera à résoudre plus efficacement les tâches d'analyse et de sélection d'événements :les GPU sont initialement créés en tant que système multicanal avec plusieurs cœurs. Et tandis que les processeurs sont orientés vers le traitement consécutif de l'information, Les GPU sont utilisés pour des calculs simultanés massifs. En outre, ils ont un ensemble de tâches plus spécifique et limité, ce qui ajoute aux performances.
Selon Denis Derkach, responsable de l'équipe LHCb à l'Université HSE, grâce à la décision de ne pas utiliser de CPU, la nouvelle ferme est bien adaptée pour la future prise de données LHCb. En outre, Allen coûtera beaucoup moins cher qu'un système similaire sur les processeurs. Il sera également plus simple que les précédents systèmes d'inscription aux événements dans les accélérateurs.
L'avantage à long terme de la nouvelle approche est particulièrement important. L'équipement pour de nombreuses expériences de physique est actuellement mis à niveau dans le monde entier. Et pratiquement toutes ces mises à niveau entraînent un flux croissant d'informations traitées. Précédemment, les expériences n'ont pas exceptionnellement utilisé des systèmes basés sur des GPU. Mais les avantages d'Allen – une architecture plus simple et un coût moindre – sont si évidents que cette approche prendra sans aucun doute la tête au-delà de l'expérience LHCb.