La science des matériaux permet des technologies de pointe, depuis les voitures légères et les ordinateurs puissants jusqu'aux batteries de grande capacité et aux engins spatiaux durables. Mais pour développer des matériaux destinés à ces applications, ils doivent être analysés avec précision à travers de nombreuses lentilles microscopiques :un processus difficile et long.
Un nouveau modèle d'intelligence artificielle (IA) développé au Pacific Northwest National Laboratory (PNNL) peut identifier des modèles dans les images de matériaux au microscope électronique sans nécessiter d'intervention humaine, permettant ainsi une science des matériaux plus précise et cohérente. Cela supprime également un obstacle à l'expérimentation autonome sur les microscopes électroniques, un élément important des soi-disant « laboratoires autonomes ».
"Nous faisons beaucoup de sciences des matériaux différentes au laboratoire, qu'il s'agisse de développer de nouveaux matériaux pour les catalyseurs, le stockage d'énergie ou l'électronique", a déclaré Steven Spurgeon, scientifique principal des matériaux au PNNL qui travaille depuis de nombreuses années à appliquer l'IA à la science des matériaux. .
"Nous travaillons également beaucoup pour comprendre comment les matériaux évoluent dans différents environnements. Si vous placez, par exemple, des capteurs dans un réacteur nucléaire ou un vaisseau spatial, ils seront exposés à des environnements à fort rayonnement, entraînant une dégradation au fil du temps. temps."
Comprendre cette dégradation aide à son tour les chercheurs à concevoir de meilleurs matériaux.
En règle générale, pour entraîner un modèle d’IA à comprendre un phénomène tel que les dommages causés par les radiations, les chercheurs produisaient minutieusement un ensemble de données d’entraînement étiqueté à la main, traçant manuellement les régions endommagées par les radiations sur des images au microscope électronique. Cet ensemble de données étiquetées à la main serait ensuite utilisée pour former un modèle d'IA, qui identifierait les caractéristiques communes de ces régions identifiées par l'homme et chercherait à identifier des régions similaires dans des images non étiquetées.
L’étiquetage manuel des ensembles de données n’est pas idéal. C'est un processus qui prend du temps, mais de plus, les humains sont plus sujets aux incohérences et aux inexactitudes dans leur étiquetage, et ils ne sont pas aussi doués pour considérer simultanément (et étiqueter de manière impartiale) différentes lentilles (modalités) du même échantillon.
"En général, l'humain fait des évaluations subjectives des données", a déclaré Spurgeon. "Et nous ne pouvons tout simplement pas faire cela avec les types de matériel que nous construisons actuellement."
L'utilisation de données étiquetées nécessite également qu'un humain soit « au courant », interrompant le processus d'expérimentation pendant que les humains interprètent ou étiquetent les données d'une nouvelle image au microscope électronique.
La solution :un modèle non supervisé capable d'analyser les données sans impliquer des humains.
Enlever les roues d'entraînement
"Ce que nous voulions faire, c'est proposer une approche non supervisée pour classer les images au microscope électronique", a déclaré Arman Ter-Petrosyan, chercheur associé au PNNL. "Et au-delà du problème fondamental de la classification, nous voulions trouver des moyens d'utiliser ces modèles pour décrire différentes interfaces matérielles."
L’équipe a commencé avec le modèle ResNet50 AI et un ensemble de données préexistant de plus de 100 000 images de microscopie électronique non étiquetées appelées MicroNet. En utilisant cela comme base, ils ont appris au modèle à diviser chaque image du microscope électronique en une grille de petites « puces », puis lui ont demandé de calculer les similitudes globales entre les puces et de leur attribuer des scores de similarité les unes aux autres. Les groupes de puces les plus similaires les uns aux autres sont ensuite triés en « communautés » qui représentent des parties de l'image avec des caractéristiques comparables.
Le résultat est une représentation abstraite des modèles dans les données qui peuvent ensuite être dispersées à travers les images du microscope électronique et les régions de codage couleur par leurs communautés respectives, le tout sans qu'il soit nécessaire qu'un humain dise au modèle ce qu'il doit rechercher.
Les chercheurs ont appliqué le nouveau modèle pour comprendre les dommages causés par les rayonnements dans les matériaux utilisés dans des environnements à fort rayonnement comme les réacteurs nucléaires. Le modèle est capable de « découper » avec précision les zones dégradées et de trier l'image en communautés représentant différents niveaux de dommages causés par les radiations.
"C'est une façon de prendre les données et de représenter les relations entre des zones qui ne sont pas nécessairement côte à côte dans le matériau", a expliqué Ter-Petrosyan.
La beauté du modèle, ont expliqué les chercheurs, est qu'il identifie ces communautés avec une cohérence extraordinaire, produisant les régions décrites de données étiquetées sans aucune des déviations mercurielles de l'étiquetage humain. Ceci est utile non seulement pour évaluer une image, mais également pour établir des mesures objectives pour décrire différents états de matériaux.
"J'ai un matériau parfait; je l'irradie; il commence à se décomposer", a déclaré Spurgeon. « Comment décrire ce processus afin de pouvoir mieux concevoir ce matériau pour une application particulière ? Notre problème est que nous avons les données – nous les avons depuis longtemps – et nous sommes capables de les collecter régulièrement, mais nous ne l'utilisons pas pour diffuser ces descripteurs."
De plus, les microscopes électroniques capturent plus d’une image à la fois :en fait, ils capturent diverses images, lectures spectroscopiques et diagrammes de diffraction. Mais avec l'étiquetage humain, les ensembles de données et les modèles d'IA se limitent presque toujours à identifier des modèles sur un seul type de données (ou « modalité »).
Mais désormais, avec l’IA non supervisée, la porte est ouverte à des modèles multimodaux qui intègrent simultanément plusieurs angles de données. "Plus vous ajoutez de types de données, plus votre modèle devient puissant et prédictif", a déclaré Spurgeon.
Ce développement est une autre étape vers une expérimentation matérielle robuste et autonome sur les microscopes électroniques au PNNL. Le projet innovant AutoEM (Artificial Intelligence-Guided Transmission Electron Microscope) du laboratoire avait déjà pu utiliser l'IA pour fusionner et identifier à la volée des caractéristiques dans les images du microscope électronique, permettant aux chercheurs de sélectionner des points d'intérêt qui sont ensuite étudiés intelligemment par AutoEM. /P>
Le nouveau modèle étend ces capacités, permettant la détection et la catégorisation rapides de régions et de tendances similaires. "Une grande partie de ces éléments sont déjà déployés sur plusieurs microscopes du PNNL", a déclaré Spurgeon.
Les chercheurs vont désormais travailler à l’optimisation du modèle pour comprendre de nouvelles modalités de données ainsi que des phénomènes différents et plus complexes. Ils travaillent également à accélérer le modèle afin qu'il puisse être utilisé en temps réel pendant que les microscopes électroniques produisent des données.
"À l'avenir, nous voulons vraiment démontrer comment cela peut être réalisé de manière pratique", a déclaré Spurgeon. "Ce n'est pas seulement un modèle que nous utilisons hors ligne :il est utilisé par des personnes au moment de nos expériences. Espérons que cela établira un prototype pour d'autres personnes de la communauté."
Les détails du modèle sont publiés sur arXiv serveur de préimpression.
Plus d'informations : Arman H Ter-Petrosyan et al, Segmentation non supervisée des transitions de phase ordre-désordre induites par l'irradiation en microscopie électronique, arXiv (2023). DOI :10.48550/arxiv.2311.08585
Informations sur le journal : arXiv
Fourni par le Laboratoire national du Nord-Ouest du Pacifique