Materiaalwetenschap maakt geavanceerde technologieën mogelijk, van lichtgewicht auto's en krachtige computers tot batterijen met hoge capaciteit en duurzame ruimtevaartuigen. Maar om materialen voor deze toepassingen te ontwikkelen, moeten ze nauwkeurig worden geanalyseerd via talloze microscopische lenzen – een moeilijk en tijdrovend proces.
Een nieuw model voor kunstmatige intelligentie (AI), ontwikkeld door het Pacific Northwest National Laboratory (PNNL), kan patronen identificeren in elektronenmicroscoopbeelden van materialen zonder menselijke tussenkomst, waardoor een nauwkeurigere en consistentere materiaalwetenschap mogelijk wordt. Het neemt ook een barrière weg voor autonome experimenten met elektronenmicroscopen – een belangrijk onderdeel van zogenaamde ‘zelfrijdende laboratoria’.
"We doen veel verschillende materiaalwetenschappen in het laboratorium, of het nu gaat om het ontwikkelen van nieuwe materialen voor katalysatoren, energieopslag of elektronica", zegt Steven Spurgeon, een senior materiaalwetenschapper bij PNNL die al jaren werkt aan de toepassing van AI in de materiaalkunde. .
"We doen ook veel werk om te begrijpen hoe materialen in verschillende omgevingen evolueren. Als je bijvoorbeeld sensoren in een kernreactor of een ruimtevaartuig plaatst, zullen ze worden blootgesteld aan omgevingen met hoge straling, wat leidt tot degradatie in de loop van de tijd. tijd."
Het begrijpen van die degradatie helpt onderzoekers op hun beurt betere materialen te ontwerpen.
Om een AI-model te trainen om een fenomeen als stralingsschade te begrijpen, produceerden onderzoekers doorgaans nauwgezet een met de hand gelabelde trainingsdataset, waarbij ze handmatig de door straling beschadigde gebieden op elektronenmicroscoopbeelden volgden. Die met de hand gelabelde dataset zou vervolgens worden gebruikt om een AI-model te trainen, dat de gedeelde kenmerken van die door mensen geïdentificeerde regio's zou identificeren en vergelijkbare regio's zou proberen te identificeren in ongelabelde afbeeldingen.
Het handmatig labelen van datasets is niet ideaal. Het is een tijdrovend proces, maar bovendien zijn mensen gevoeliger voor inconsistenties en onnauwkeurigheden in hun etikettering, en zijn ze niet zo goed in het gelijktijdig overwegen (en gelijkmatig labelen) van verschillende lenzen (modaliteiten) van hetzelfde monster.
"Normaal gesproken maakt de mens subjectieve beoordelingen van de gegevens", zei Spurgeon. "En dat kunnen we gewoon niet doen met de soorten hardware die we nu bouwen."
Het gebruik van gelabelde gegevens vereist ook dat er een mens 'in de lus' zit, die het experimenteerproces pauzeert terwijl mensen de gegevens van een nieuw elektronenmicroscoopbeeld interpreteren of labelen.
De oplossing:een model zonder toezicht dat de gegevens kan analyseren zonder dat er mensen bij betrokken zijn.
De zijwieltjes eraf halen
"Wat we wilden doen is een aanpak zonder toezicht bedenken voor het classificeren van elektronenmicroscoopbeelden", zegt Arman Ter-Petrosyan, onderzoeksmedewerker bij PNNL. "En naast het fundamentele probleem van classificatie, wilden we manieren bedenken om deze modellen te gebruiken om verschillende materiële interfaces te beschrijven."
Het team begon met het ResNet50 AI-model en een reeds bestaande dataset van meer dan 100.000 ongelabelde elektronenmicroscopiebeelden, genaamd MicroNet. Met dat als basis leerden ze het model om elk beeld van de elektronenmicroscoop op te delen in een raster van kleine 'chips', en gaven ze vervolgens de opdracht om de algemene overeenkomsten tussen de chips te berekenen en deze gelijkheidsscores aan elkaar toe te kennen. Groepen chips die het meest op elkaar lijken, worden vervolgens gesorteerd in 'gemeenschappen' die delen van de afbeelding met vergelijkbare kenmerken vertegenwoordigen.
Het resultaat is een abstracte weergave van patronen in de gegevens die vervolgens door hun respectievelijke gemeenschappen over de elektronenmicroscoopbeelden en kleurcoderingsgebieden kunnen worden verspreid, zonder dat een mens het model hoeft te vertellen waar hij op moet letten.
De onderzoekers hebben het nieuwe model toegepast om inzicht te krijgen in stralingsschade in materialen die worden gebruikt in omgevingen met hoge straling, zoals kernreactoren. Het model is in staat de aangetaste gebieden nauwkeurig te 'chippen' en het beeld te sorteren in gemeenschappen die verschillende niveaus van stralingsschade vertegenwoordigen.
"Dit is een manier om de gegevens te gebruiken en relaties weer te geven tussen gebieden die in het materiaal niet noodzakelijkerwijs naast elkaar liggen", legt Ter-Petrosyan uit.
Beter dan menselijk
Het mooie van het model, zo legden de onderzoekers uit, is dat het deze gemeenschappen met buitengewone consistentie identificeert, waarbij de geschetste gebieden met gelabelde gegevens worden geproduceerd zonder de grillige afwijkingen van menselijke etikettering. Dit is niet alleen nuttig voor het beoordelen van een afbeelding, maar ook voor het vaststellen van objectieve meetgegevens om verschillende toestanden van materialen te beschrijven.
"Ik heb een perfect materiaal; ik bestraal het; het begint af te breken", zei Spurgeon. "Hoe beschrijf ik dat proces, zodat ik dat materiaal beter kan ontwikkelen voor een bepaalde toepassing? Ons probleem is dat we de gegevens hebben – die hebben we al heel lang – en we kunnen deze routinematig verzamelen, maar we gebruiken het niet om die descriptoren eruit te halen."