science >> Wetenschap >  >> Astronomie

Machine learning versnelt kosmologische simulaties

De meest linkse simulatie liep op een lage resolutie. Met behulp van machinaal leren, onderzoekers hebben het model met lage resolutie opgeschaald om een ​​simulatie met hoge resolutie te maken (rechts). Die simulatie legt dezelfde details vast als een conventioneel model met hoge resolutie (midden), terwijl er aanzienlijk minder rekenbronnen nodig zijn. Credit:Y. Li et al./Proceedings van de National Academy of Sciences 2021

Een universum evolueert over miljarden en miljarden jaren, maar onderzoekers hebben een manier ontwikkeld om in minder dan een dag een complex gesimuleerd universum te creëren. De techniek, gepubliceerd in de . van deze week Proceedings van de National Academy of Sciences , brengt machine learning samen, high-performance computing en astrofysica en zal helpen een nieuw tijdperk van kosmologiesimulaties met hoge resolutie in te luiden.

Kosmologische simulaties zijn een essentieel onderdeel van het ontrafelen van de vele mysteries van het universum, inclusief die van donkere materie en donkere energie. Maar tot nu toe, onderzoekers stonden voor het algemene raadsel dat ze niet alles konden hebben - simulaties zouden zich kunnen concentreren op een klein gebied met een hoge resolutie, of ze zouden een groot volume van het universum kunnen omvatten met een lage resolutie.

Carnegie Mellon University natuurkunde professoren Tiziana Di Matteo en Rupert Croft, Flatiron Institute Research Fellow Yin Li, Carnegie Mellon Ph.D. kandidaat Yueying Ni, University of California Riverside Professor of Physics and Astronomy Simeon Bird en Yu Feng van de University of California Berkeley hebben dit probleem overwonnen door een machine learning-algoritme op basis van neurale netwerken te leren om een ​​simulatie te upgraden van lage resolutie naar superresolutie.

"Kosmologische simulaties moeten een groot volume beslaan voor kosmologische studies, terwijl ook een hoge resolutie vereist is om de fysica van de kleinschalige melkwegvorming op te lossen, wat enorme rekenkundige uitdagingen met zich mee zou brengen. Onze techniek kan worden gebruikt als een krachtig en veelbelovend hulpmiddel om tegelijkertijd aan die twee vereisten te voldoen door de kleinschalige fysica van de vorming van sterrenstelsels in grote kosmologische volumes te modelleren, " zei Ni, die de training van het model heeft uitgevoerd, bouwde de pijplijn voor testen en valideren, analyseerde de data en maakte de visualisatie van de data.

De getrainde code kan volledige, modellen met een lage resolutie en genereren superresolutiesimulaties die tot 512 keer zoveel deeltjes bevatten. Voor een gebied in het heelal van ongeveer 500 miljoen lichtjaar met 134 miljoen deeltjes, bestaande methoden zouden 560 uur nodig hebben om een ​​simulatie met hoge resolutie te maken met behulp van een enkele verwerkingskern. Met de nieuwe aanpak de onderzoekers hebben slechts 36 minuten nodig.

De resultaten waren nog dramatischer toen er meer deeltjes aan de simulatie werden toegevoegd. Voor een universum 1, 000 keer zo groot met 134 miljard deeltjes, de nieuwe methode van de onderzoekers duurde 16 uur op een enkele grafische verwerkingseenheid. Met behulp van de huidige methoden, een simulatie van deze omvang en resolutie zou een speciale supercomputer maanden in beslag nemen.

Het verminderen van de tijd die nodig is om kosmologische simulaties uit te voeren "heeft het potentieel om belangrijke vooruitgang te boeken in numerieke kosmologie en astrofysica, " zei Di Matteo. "Kosmologische simulaties volgen de geschiedenis en het lot van het universum, helemaal tot aan de vorming van alle sterrenstelsels en hun zwarte gaten."

Wetenschappers gebruiken kosmologische simulaties om te voorspellen hoe het universum eruit zou zien in verschillende scenario's, alsof de donkere energie die het universum uit elkaar trekt in de loop van de tijd varieert. Telescoopwaarnemingen bevestigen vervolgens of de voorspellingen van de simulaties overeenkomen met de werkelijkheid.

"Met onze eerdere simulaties, we hebben laten zien dat we het universum kunnen simuleren om nieuwe en interessante natuurkunde te ontdekken, maar alleen op kleine of low-res schalen, " zei Croft. "Door machine learning te integreren, de technologie kan onze ideeën inhalen."

Di Matteo, Croft en Ni maken deel uit van Carnegie Mellon's National Science Foundation (NSF) Planning Institute for Artificial Intelligence in Physics, die dit werk ondersteunden, en leden van Carnegie Mellon's McWilliams Center for Cosmology.

"Het universum is de grootste dataset die er is - kunstmatige intelligentie is de sleutel tot het begrijpen van het universum en het onthullen van nieuwe fysica, " zei Scott Dodelson, hoogleraar en hoofd van de afdeling natuurkunde aan de Carnegie Mellon University en directeur van het NSF Planning Institute. "Dit onderzoek illustreert hoe het NSF Planning Institute for Artificial Intelligence de natuurkunde zal bevorderen door middel van kunstmatige intelligentie, machinaal leren, statistiek en datawetenschap."

"Het is duidelijk dat AI een groot effect heeft op veel wetenschapsgebieden, inclusief natuurkunde en sterrenkunde, " zei James Shank, een programmadirecteur in de afdeling Natuurkunde van NSF. "Ons AI planning Institute-programma werkt eraan om AI te pushen om ontdekkingen te versnellen. Dit nieuwe resultaat is een goed voorbeeld van hoe AI de kosmologie transformeert."

Om hun nieuwe methode te creëren, Ni en Li gebruikten deze velden om een ​​code te maken die neurale netwerken gebruikt om te voorspellen hoe zwaartekracht donkere materie in de loop van de tijd verplaatst. De netwerken nemen trainingsgegevens, voer berekeningen uit en vergelijk de resultaten met het verwachte resultaat. Met verdere opleiding, de netwerken passen zich aan en worden nauwkeuriger.

De specifieke aanpak van de onderzoekers, een generatief vijandig netwerk genoemd, zet twee neurale netwerken tegen elkaar op. Eén netwerk neemt simulaties met een lage resolutie van het universum en gebruikt deze om modellen met een hoge resolutie te genereren. Het andere netwerk probeert die simulaties te onderscheiden van de simulaties die met conventionele methoden zijn gemaakt. Overuren, beide neurale netwerken worden beter en beter totdat, uiteindelijk, de simulatiegenerator wint en creëert snelle simulaties die er net zo uitzien als de langzame conventionele.

"We konden het twee jaar niet laten werken, "Li zei, "en ineens begon het te werken. We kregen mooie resultaten die overeenkwamen met wat we verwachtten. We hebben zelf zelfs enkele blinde tests gedaan, en de meesten van ons konden niet zeggen welke 'echt' was en welke 'nep'."

Ondanks dat ze alleen worden getraind met behulp van kleine ruimtes, de neurale netwerken repliceerden nauwkeurig de grootschalige structuren die alleen in enorme simulaties verschijnen.

De simulaties legden niet alles vast, Hoewel. Omdat ze zich concentreerden op donkere materie en zwaartekracht, fenomenen op kleinere schaal, zoals stervorming, supernovae en de effecten van zwarte gaten werden weggelaten. De onderzoekers zijn van plan hun methoden uit te breiden met de krachten die verantwoordelijk zijn voor dergelijke verschijnselen, en om hun neurale netwerken 'on the fly' naast conventionele simulaties te laten draaien om de nauwkeurigheid te verbeteren.