Wetenschap
Krediet:CC0 Publiek Domein
Experimenten bij de Large Hadron Collider (LHC), 's werelds grootste deeltjesversneller in het Europese deeltjesfysica-lab CERN, elke seconde ongeveer een miljoen gigabyte aan data produceren. Zelfs na reductie en compressie, de gegevens die in slechts één uur worden verzameld, zijn vergelijkbaar met het gegevensvolume dat Facebook in een heel jaar verzamelt - te veel om op te slaan en te analyseren.
Gelukkig, deeltjesfysici hoeven niet alleen met al die gegevens om te gaan. Ze werken samen met een vorm van kunstmatige intelligentie, machine learning genaamd, die leert zelfstandig complexe analyses uit te voeren.
Een groep onderzoekers, waaronder wetenschappers van het SLAC National Accelerator Laboratory van het Department of Energy en het National Accelerator Laboratory van Fermi, vat de huidige toepassingen en toekomstige vooruitzichten van machine learning in de deeltjesfysica samen in een paper dat vandaag is gepubliceerd in Natuur .
"Vergeleken met een traditioneel computeralgoritme dat we ontwerpen om een specifieke analyse uit te voeren, we ontwerpen een machine learning-algoritme om zelf uit te zoeken hoe we verschillende analyses kunnen doen, ons mogelijk talloze uren aan ontwerp- en analysewerk bespaart, " zegt co-auteur Alexander Radovic van het College of William &Mary, die aan het NOvA-neutrino-experiment werkt.
Big data doorzoeken
Om de gigantische datavolumes aan te kunnen die worden geproduceerd in moderne experimenten zoals die bij de LHC, onderzoekers passen wat ze 'triggers' noemen toe:speciale hardware en software die in realtime beslissen welke gegevens voor analyse moeten worden bewaard en welke gegevens ze weggooien.
Bij LHCb, een experiment dat licht zou kunnen werpen op waarom er zoveel meer materie dan antimaterie in het universum is, machine learning-algoritmen nemen ten minste 70 procent van deze beslissingen, zegt LHCb-wetenschapper Mike Williams van het Massachusetts Institute of Technology, een van de auteurs van de Nature-samenvatting. "Machine learning speelt in bijna alle data-aspecten van het experiment een rol, van triggers tot de analyse van de resterende data, " hij zegt.
Machine learning is zeer succesvol gebleken op het gebied van analyse. De gigantische ATLAS- en CMS-detectoren bij de LHC, die de ontdekking van het Higgs-deeltje mogelijk maakte, elk heeft miljoenen detectie-elementen waarvan de signalen moeten worden samengevoegd om zinvolle resultaten te verkrijgen.
"Deze signalen vormen een complexe dataruimte, " zegt Michael Kagan van SLAC, die aan ATLAS werkt en ook auteur was van de Nature review. "We moeten de relatie tussen hen begrijpen om conclusies te kunnen trekken, bijvoorbeeld dat een bepaald deeltjesspoor in de detector werd geproduceerd door een elektron, een foton of iets anders."
Neutrino-experimenten profiteren ook van machine learning. NOvA, die wordt beheerd door Fermilab, bestudeert hoe neutrino's van het ene type in het andere veranderen terwijl ze door de aarde reizen. Deze neutrino-oscillaties zouden mogelijk het bestaan van een nieuw neutrino-type kunnen onthullen waarvan sommige theorieën voorspellen dat het een deeltje donkere materie is. NOvA's detectoren letten op geladen deeltjes die worden geproduceerd wanneer neutrino's het detectormateriaal raken, en machine learning-algoritmen identificeren ze.
Van machine learning tot deep learning
Recente ontwikkelingen op het gebied van machine learning, vaak "diep leren, " beloven toepassingen in de deeltjesfysica nog verder te brengen. Deep learning verwijst meestal naar het gebruik van neurale netwerken:computeralgoritmen met een architectuur die is geïnspireerd op het dichte netwerk van neuronen in het menselijk brein.
Deze neurale netten leren zelfstandig bepaalde analysetaken uit te voeren tijdens een trainingsperiode waarin ze voorbeeldgegevens te zien krijgen, zoals simulaties, en vertelde hoe goed ze presteerden.
Tot voor kort, het succes van neurale netten was beperkt omdat het trainen ervan vroeger erg moeilijk was, zegt co-auteur Kazuhiro Terao, een SLAC-onderzoeker die werkt aan het MicroBooNE-neutrino-experiment, die neutrino-oscillaties bestudeert als onderdeel van Fermilab's korte-baseline neutrino-programma en een onderdeel zal worden van het toekomstige Deep Underground Neutrino Experiment (DUNE) in de Long-Baseline Neutrino Facility (LBNF). "Deze moeilijkheden beperkten ons tot neurale netwerken die slechts een paar lagen diep waren, " zegt hij. "Dankzij de vooruitgang in algoritmen en computerhardware, we weten nu veel beter hoe we meer capabele netwerken kunnen bouwen en trainen, honderden of duizenden lagen diep."
Veel van de vorderingen op het gebied van deep learning worden aangedreven door de commerciële toepassingen van techreuzen en de data-explosie die ze de afgelopen twee decennia hebben gegenereerd. "NOvA, bijvoorbeeld, maakt gebruik van een neuraal netwerk geïnspireerd op de architectuur van GoogleNet, " zegt Radovic. "Het heeft het experiment verbeterd op manieren die anders alleen bereikt hadden kunnen worden door 30 procent meer gegevens te verzamelen."
Een vruchtbare voedingsbodem voor innovatie
Algoritmen voor machinaal leren worden met de dag geavanceerder en verfijnder, het openen van ongekende mogelijkheden om deeltjesfysica problemen op te lossen.
Veel van de nieuwe taken waarvoor ze kunnen worden gebruikt, hebben te maken met computervisie, zegt Kagan. "Het is vergelijkbaar met gezichtsherkenning, behalve dat in de deeltjesfysica, beeldkenmerken zijn abstracter dan oren en neuzen."
Sommige experimenten, zoals NOvA en MicroBooNE, produceren gegevens die gemakkelijk kunnen worden vertaald in daadwerkelijke afbeeldingen, en AI kan gemakkelijk worden gebruikt om functies daarin te identificeren. Bij LHC-experimenten anderzijds, afbeeldingen moeten eerst worden gereconstrueerd uit een duistere pool van gegevens die is gegenereerd door miljoenen sensorelementen.
"Maar zelfs als de gegevens er niet uitzien als afbeeldingen, we kunnen nog steeds computervisiemethoden gebruiken als we de gegevens op de juiste manier kunnen verwerken, ' zegt Radovic.
Een gebied waar deze benadering zeer nuttig zou kunnen zijn, is de analyse van in grote aantallen geproduceerde deeltjesjets in de LHC. Jets zijn smalle nevels van deeltjes waarvan de afzonderlijke sporen buitengewoon moeilijk te scheiden zijn. Computer vision-technologie kan helpen bij het identificeren van kenmerken in jets.
Een andere opkomende toepassing van deep learning is de simulatie van deeltjesfysicagegevens die voorspellen, bijvoorbeeld, wat er gebeurt bij deeltjesbotsingen bij de LHC en kan worden vergeleken met de werkelijke gegevens. Simulaties zoals deze zijn doorgaans traag en vereisen een enorme rekenkracht. AI, anderzijds, simulaties veel sneller kunnen doen, mogelijk een aanvulling op de traditionele aanpak.
"Een paar jaar geleden, niemand had gedacht dat diepe neurale netwerken kunnen worden getraind om gegevens van willekeurige ruis te 'hallucineren', " zegt Kagan. "Hoewel dit heel vroeg werk is, het belooft veel en kan helpen bij de data-uitdagingen van de toekomst."
Profiteren van gezond scepticisme
Ondanks alle duidelijke vorderingen, enthousiastelingen over machine learning hebben vaak te maken met scepsis van hun samenwerkingspartners, deels omdat algoritmen voor machinaal leren meestal werken als 'zwarte dozen' die heel weinig informatie geven over hoe ze tot een bepaalde conclusie zijn gekomen.
"Scepticisme is heel gezond, "zegt Williams. "Als je machine learning gebruikt voor triggers die gegevens weggooien, zoals we doen in LHCb, dan wil je extreem voorzichtig zijn en de lat heel hoog leggen."
Daarom, het tot stand brengen van machine learning in de deeltjesfysica vereist constante inspanningen om de innerlijke werking van de algoritmen beter te begrijpen en om waar mogelijk kruiscontroles uit te voeren met echte gegevens.
"We moeten altijd proberen te begrijpen wat een computeralgoritme doet en altijd de uitkomst ervan evalueren, " zegt Terao. "Dit geldt voor elk algoritme, niet alleen machinaal leren. Dus, sceptisch zijn mag de vooruitgang niet tegenhouden."
Door de snelle vooruitgang dromen sommige onderzoekers van wat er in de nabije toekomst mogelijk zou kunnen worden. "Tegenwoordig gebruiken we machinaal leren vooral om functies in onze gegevens te vinden die ons kunnen helpen bij het beantwoorden van enkele van onze vragen, " zegt Terao. "Over tien jaar, machine learning-algoritmen kunnen mogelijk hun eigen vragen onafhankelijk stellen en herkennen wanneer ze nieuwe natuurkunde ontdekken."
Nucleïnezuren zijn kleine stukjes materie met grote rollen om te spelen. Genoemd naar hun locatie - de kern - deze zuren dragen informatie die cellen helpt bij het maken va
Wetenschap © https://nl.scienceaq.com