Lorsque les scientifiques ont besoin d'accéder aux fichiers stockés pour effectuer des analyses, un long bras robotique descend du plafond, sélectionne une bande, et transfère les données qu'il stocke sur un disque dur. Crédit :Reidar Hahn, Laboratoire Fermi
Au Grand collisionneur de hadrons du CERN, jusqu'à 40 millions de collisions de particules se produisent en l'espace d'une seule seconde à l'intérieur des plus de 80 millions de canaux de détection du détecteur de particules CMS. Ces collisions créent une énorme empreinte numérique, même après que les ordinateurs l'ont converti aux données les plus significatives. Le simple fait de récupérer des informations peut signifier lutter contre les goulots d'étranglement.
Les physiciens de CMS au Laboratoire national de l'accélérateur Fermi du département de l'Énergie des États-Unis, qui stocke une grande partie des données du LHC, expérimentent maintenant l'utilisation de NVMe, ou mémoire non volatile express, technologie à semi-conducteurs pour déterminer la meilleure façon d'accéder aux fichiers stockés lorsque les scientifiques ont besoin de les récupérer pour analyse.
Le problème avec les téraoctets
Les résultats de l'expérience CMS au CERN ont le potentiel d'aider à répondre à certaines des plus grandes questions ouvertes en physique, comme pourquoi il y a plus de matière que d'antimatière dans l'univers et s'il y a plus de trois dimensions physiques.
Avant que les scientifiques puissent répondre à de telles questions, cependant, ils ont besoin d'accéder aux données de collision enregistrées par le détecteur CMS, dont une grande partie a été construite au Fermilab. L'accès aux données n'est en aucun cas une tâche triviale. Sans élagage des données en ligne, le LHC générerait 40 téraoctets de données par seconde, assez pour remplir les disques durs de 80 ordinateurs portables ordinaires. Un processus de sélection automatisé ne garde que l'important, collisions intéressantes, réduire le nombre d'événements enregistrés de 40 millions par seconde à seulement 1, 000.
"Nous ne nous soucions que d'une fraction de ces collisions, nous avons donc une séquence de critères de sélection qui décident lesquels garder et lesquels jeter en temps réel, " a déclaré Bo Jayatilaka, scientifique du Fermilab, qui dirige le projet NVMe.
Toujours, même avec une taille sélective, des dizaines de milliers de téraoctets de données provenant du seul détecteur CMS doivent être stockés chaque année. Non seulement que, mais pour s'assurer qu'aucune des informations ne soit jamais perdue ou détruite, deux copies de chaque fichier doivent être enregistrées. Un exemplaire est conservé dans son intégralité au CERN, tandis que l'autre copie est partagée entre les institutions partenaires du monde entier. Le Fermilab est la principale installation de stockage désignée aux États-Unis pour l'expérience CMS, avec environ 40% des fichiers de données de l'expérience stockés sur bande.
Une solution à l'état solide
Le Feynman Computing Center du Fermilab abrite trois grandes bibliothèques de données remplies de rangées sur rangées de bandes magnétiques qui stockent les données des propres expériences du Fermilab, ainsi que de CMS. Si vous deviez combiner toute la capacité de stockage sur bande du Laboratoire Fermi, vous auriez à peu près la capacité de stocker l'équivalent de 13, 000 ans de séquences TV HD.
"Nous avons des racks pleins de serveurs qui ont des disques durs dessus, et ils sont le principal support de stockage sur lequel les scientifiques lisent et écrivent des données vers et depuis, " a déclaré Jayatilaka.
Mais les disques durs, qui ont été utilisés comme périphériques de stockage dans les ordinateurs au cours des 60 dernières années, sont limités dans la quantité de données qu'ils peuvent charger dans les applications en un temps donné. C'est parce qu'ils chargent des données en les récupérant à partir de disques en rotation, qui est le seul point d'accès à ces informations. Les scientifiques étudient des moyens de mettre en œuvre de nouveaux types de technologies pour aider à accélérer le processus.
À cette fin, Le Fermilab a récemment installé un seul rack de serveurs rempli de disques NVMe à semi-conducteurs dans son centre de calcul Feynman pour accélérer les analyses de physique des particules.
Pour tenter d'accélérer les analyses dans la recherche en physique des hautes énergies, Fermilab a récemment installé un seul rack de serveurs rempli de disques SSD appelé NVMe. Crédit :Bo Jayatilaka, Laboratoire Fermi
Généralement, Les disques SSD utilisent des circuits électriques compacts pour transférer rapidement des données. NVMe est un type avancé de disque SSD qui peut gérer jusqu'à 4, 000 mégaoctets par seconde. Pour mettre cela en perspective, le disque dur moyen plafonne à environ 150 mégaoctets par seconde, faire de l'état solide le choix évident si la vitesse est votre objectif principal.
Mais les disques durs n'ont pas encore été relégués à l'antiquité. Ce qui leur manque en vitesse, ils compensent en capacité de stockage. Maintenant, la limite de stockage moyenne dans les disques SSD est de 500 gigaoctets, qui est la quantité minimale de stockage que vous trouverez généralement disponible sur les disques durs modernes. Déterminer si le Fermilab doit ou non remplacer une plus grande partie de sa mémoire de stockage sur disque dur par des disques à semi-conducteurs nécessitera donc une analyse minutieuse des coûts et des avantages.
Entreprendre une analyse
Lorsque les chercheurs analysent leurs données à l'aide de gros serveurs informatiques ou de superordinateurs, ils le font généralement en récupérant séquentiellement des parties de ces données à partir du stockage, une tâche bien adaptée pour les disques durs.
"Jusqu'à maintenant, nous avons pu nous en sortir en utilisant des disques durs en physique des hautes énergies car nous avons tendance à gérer des millions d'événements en analysant chaque événement un à la fois, " a dit Jayatilaka. " Donc à tout moment, vous ne demandez que quelques données de chaque disque dur individuel."
Mais les nouvelles techniques changent la façon dont les scientifiques analysent leurs données. Apprentissage automatique, par exemple, devient de plus en plus courant en physique des particules, notamment pour l'expérience CMS, où cette technologie est responsable du processus de sélection automatisé qui ne conserve qu'une petite fraction des scientifiques des données intéressés par l'étude.
Mais au lieu d'accéder à de petites portions de données, les algorithmes d'apprentissage automatique doivent accéder à plusieurs reprises à la même donnée, qu'elle soit stockée sur un disque dur ou un disque SSD. Ce ne serait pas vraiment un problème s'il n'y avait que quelques processeurs essayant d'accéder à ce point de données, mais dans les calculs de physique des hautes énergies, des milliers de processeurs rivalisent pour accéder simultanément à ce point de données.
Cela peut rapidement provoquer des goulots d'étranglement et des vitesses lentes lors de l'utilisation de disques durs traditionnels. Le résultat final est des temps de calcul plus lents.
Les chercheurs du Fermilab testent actuellement la technologie NVMe pour sa capacité à réduire le nombre de ces goulots d'étranglement de données.
L'avenir de l'informatique au Fermilab
La puissance de stockage et de calcul du Laboratoire Fermi est bien plus qu'une simple centrale électrique pour l'expérience CMS. L'effort de R&D informatique de CMS jette également les bases du succès du prochain programme LHC à haute luminosité et permet à la communauté internationale, Expérience Deep Underground Neutrino hébergée par Fermilab, les deux commenceront à prendre des données à la fin des années 2020.
Le travail de Jayatilaka et de son équipe permettra également aux physiciens de prioriser où les disques NVMe devraient être principalement situés, que ce soit au Laboratoire Fermi ou dans les installations de stockage d'autres institutions partenaires du LHC.
Avec les nouveaux serveurs en main, l'équipe explore comment déployer la nouvelle technologie à semi-conducteurs dans l'infrastructure informatique existante au Fermilab.