Wetenschap
Schema van de ATLAS-detector in de Large Hadron Collider. Krediet:ATLAS-samenwerking
De Large Hadron Collider (LHC) bij Genève, Zwitserland werd in 2012 wereldberoemd met de detectie van het Higgs-deeltje. De waarneming markeerde een cruciale bevestiging van het standaardmodel van de deeltjesfysica, die de subatomaire deeltjes organiseert in groepen die lijken op elementen in het periodiek systeem uit de chemie.
Het Argonne National Laboratory van het Amerikaanse Department of Energy (DOE) heeft veel cruciale bijdragen geleverd aan de constructie en werking van de ATLAS-experimentele detector bij de LHC en aan de analyse van door de detector geregistreerde signalen die de onderliggende fysica van deeltjesbotsingen blootleggen. Argonne speelt nu een leidende rol bij de upgrade met hoge helderheid van de ATLAS-detector voor operaties die gepland zijn om in 2027 te beginnen. een team van natuurkundigen en computerwetenschappers uit Argonne heeft een op machine learning gebaseerd algoritme bedacht dat benadert hoe de huidige detector zou reageren op de sterk toegenomen gegevens die met de upgrade worden verwacht.
Als de grootste fysica-machine ooit gebouwd, de LHC schiet twee bundels protonen in tegengestelde richtingen rond een ring van 17 mijl tot ze bijna de lichtsnelheid naderen, slaat ze aan elkaar en analyseert de botsingsproducten met gigantische detectoren zoals ATLAS. Het ATLAS-instrument is ongeveer zo hoog als een gebouw van zes verdiepingen en weegt ongeveer 7, 000 ton. Vandaag, de LHC blijft het Higgs-deeltje bestuderen, evenals fundamentele vragen over hoe en waarom de materie in het universum is zoals het is.
"De meeste onderzoeksvragen bij ATLAS hebben betrekking op het vinden van een speld in een gigantische hooiberg, waar wetenschappers alleen geïnteresseerd zijn in het vinden van één gebeurtenis die plaatsvindt onder een miljard andere, " zei Walter Hopkins, assistent-fysicus in de divisie High Energy Physics (HEP) van Argonne.
Als onderdeel van de LHC-upgrade, er worden nu inspanningen geleverd om de helderheid van de LHC - het aantal proton-tot-proton-interacties per botsing van de twee protonenbundels - met een factor vijf te verhogen. Dit zal ongeveer 10 keer meer gegevens per jaar opleveren dan wat momenteel wordt verzameld door de LHC-experimenten. Hoe goed de detectoren reageren op deze verhoogde frequentie moet nog worden begrepen. Dit vereist het uitvoeren van krachtige computersimulaties van de detectoren om bekende processen als gevolg van LHC-botsingen nauwkeurig te beoordelen. Deze grootschalige simulaties zijn kostbaar en vergen grote hoeveelheden rekentijd op 's werelds beste en krachtigste supercomputers.
Het Argonne-team heeft een algoritme voor machine learning ontwikkeld dat als voorlopige simulatie wordt uitgevoerd vóór volledige simulaties. Dit algoritme benadert, op zeer snelle en goedkopere manieren, hoe de huidige detector zou reageren op de sterk toegenomen gegevens die met de upgrade worden verwacht. Het omvat simulatie van detectorreacties op een deeltjesbotsingsexperiment en de reconstructie van objecten uit de fysieke processen. Deze gereconstrueerde objecten omvatten jets of sprays van deeltjes, evenals individuele deeltjes zoals elektronen en muonen.
"De ontdekking van nieuwe fysica bij de LHC en elders vereist steeds complexere methoden voor big data-analyses, " zei Doug Benjamin, een computationele wetenschapper in HEP. "Tegenwoordig betekent dat meestal het gebruik van machine learning en andere kunstmatige-intelligentietechnieken."
De eerder gebruikte analysemethoden voor initiële simulaties hebben geen machine learning-algoritmen gebruikt en zijn tijdrovend omdat ze experimentele parameters handmatig moeten bijwerken wanneer de omstandigheden bij de LHC veranderen. Sommigen missen mogelijk ook belangrijke gegevenscorrelaties voor een bepaalde set invoervariabelen voor een experiment. Het door Argonne ontwikkelde algoritme leert, in realtime terwijl een trainingsprocedure wordt toegepast, de verschillende functies die moeten worden geïntroduceerd door middel van gedetailleerde volledige simulaties, waardoor de noodzaak om experimentele parameters met de hand te maken, wordt vermeden. De methode kan ook complexe onderlinge afhankelijkheden van variabelen vastleggen die voorheen niet mogelijk waren.
"Met onze uitgeklede simulatie, je kunt de basis leren tegen relatief weinig rekenkosten en tijd, dan kunt u op een later tijdstip veel efficiënter doorgaan met volledige simulaties, " zei Hopkins. "Ons algoritme voor machine learning biedt gebruikers ook een beter onderscheidingsvermogen bij het zoeken naar nieuwe of zeldzame gebeurtenissen in een experiment, " hij voegde toe.
Het algoritme van het team zou van onschatbare waarde kunnen zijn, niet alleen voor ATLAS, maar voor de meerdere experimentele detectoren bij de LHC, evenals andere deeltjesfysica-experimenten die nu over de hele wereld worden uitgevoerd.
Deze studie, getiteld "Geautomatiseerde detectorsimulatie en reconstructieparametrisering met behulp van machine learning, " verscheen in de Tijdschrift voor Instrumentatie .
Wetenschap © https://nl.scienceaq.com