Science >> Wetenschap >  >> Natuur

Onderzoeker:Klimaatmodellen kunnen maandenlang op supercomputers draaien, maar mijn nieuwe algoritme kan ze tien keer sneller maken

Krediet:Pixabay/CC0 Publiek Domein

Klimaatmodellen behoren tot de meest complexe stukjes software die ooit zijn geschreven en zijn in staat een groot aantal verschillende delen van het totale systeem te simuleren, zoals de atmosfeer of de oceaan. Velen zijn in de loop van tientallen jaren door honderden wetenschappers ontwikkeld en worden voortdurend aangevuld en verfijnd. Ze kunnen meer dan een miljoen regels computercode beslaan:tienduizenden afgedrukte pagina's.



Het is niet verrassend dat deze modellen duur zijn. De simulaties kosten tijd, vaak enkele maanden, en de supercomputers waarop de modellen draaien verbruiken veel energie. Maar een nieuw algoritme dat ik heb ontwikkeld, belooft veel van deze klimaatmodellensimulaties tien keer sneller te maken, en zou uiteindelijk een belangrijk hulpmiddel kunnen zijn in de strijd tegen klimaatverandering.

Eén reden waarom klimaatmodellering zo lang duurt, is dat sommige van de gesimuleerde processen intrinsiek traag zijn. De oceaan is een goed voorbeeld. Het duurt een paar duizend jaar voordat water van het oppervlak naar de diepe oceaan en terug circuleert (de atmosfeer heeft daarentegen een "mengtijd" van weken).

Sinds de eerste klimaatmodellen in de jaren zeventig werden ontwikkeld, beseften wetenschappers dat dit een probleem zou worden. Om een ​​model te gebruiken om de klimaatverandering te simuleren, moet worden uitgegaan van omstandigheden die representatief zijn voor de tijd voordat de industrialisatie leidde tot de uitstoot van broeikasgassen in de atmosfeer.

Om zo'n stabiel evenwicht te bereiken, 'verdraaien' wetenschappers hun model door het feitelijk te laten draaien totdat het niet meer verandert (het systeem is zo complex dat, net als in de echte wereld, er altijd enige fluctuaties zullen zijn).

Een begintoestand met minimale ‘drift’ is essentieel om de effecten van door de mens veroorzaakte factoren op het klimaat nauwkeurig te simuleren. Maar dankzij de oceaan en andere trage componenten kan dit zelfs op grote supercomputers enkele maanden duren. Geen wonder dat klimaatwetenschappers dit knelpunt een van de ‘grote uitdagingen’ van hun vakgebied noemen.

Ik kan niet zomaar meer computers op het probleem gooien

Je zou je kunnen afvragen:"waarom gebruiken we niet een nog grotere machine?" Helaas zou het niet helpen. Simpel gezegd zijn supercomputers slechts duizenden individuele computerchips, elk met tientallen verwerkingseenheden (CPU's of "cores") die met elkaar zijn verbonden via een hogesnelheidsnetwerk.

Een van de machines die ik gebruik heeft meer dan 300.000 kernen en kan bijna 20 biljard rekenkundige bewerkingen per seconde uitvoeren. (Het is duidelijk dat het door honderden gebruikers wordt gedeeld en dat elke simulatie slechts een klein deel van de machine zal gebruiken.)

Een klimaatmodel maakt hiervan gebruik door het oppervlak van de planeet onder te verdelen in kleinere regio's (subdomeinen), waarbij berekeningen voor elke regio tegelijkertijd op een andere CPU worden uitgevoerd. In principe geldt:hoe meer subdomeinen u heeft, hoe minder tijd het kost om de berekeningen uit te voeren.

Dat is tot op zekere hoogte waar. Het probleem is dat de verschillende subdomeinen moeten "weten" wat er gebeurt in aangrenzende subdomeinen, wat het verzenden van informatie tussen chips vereist. Dat is veel langzamer dan de snelheid waarmee moderne chips rekenkundige berekeningen kunnen uitvoeren, wat computerwetenschappers 'bandbreedtebeperking' noemen. (Iedereen die wel eens heeft geprobeerd een video via een trage internetverbinding te streamen, weet wat dat betekent.)

Er zijn daarom afnemende opbrengsten als er meer rekenkracht op het probleem wordt ingezet. Vooral oceaanmodellen hebben last van zulke slechte ‘schaalvergroting’.

Tien keer sneller

Hier bevindt zich het nieuwe computeralgoritme dat ik heb ontwikkeld en gepubliceerd in Science Advances komt binnen. Het belooft de spin-up-tijd van de oceaan en andere componenten van aardsysteemmodellen dramatisch te verminderen. Bij tests met typische klimaatmodellen was het algoritme gemiddeld tien keer sneller dan de huidige benaderingen, waardoor de tijd werd teruggebracht van vele maanden naar een week.

De tijd en energie die klimaatwetenschappers hierdoor kunnen besparen, is op zichzelf waardevol. Maar het snel kunnen opstarten van modellen betekent ook dat wetenschappers ze kunnen kalibreren aan de hand van wat we weten dat er daadwerkelijk in de echte wereld is gebeurd, waardoor ze nauwkeuriger kunnen worden of de onzekerheid in hun klimaatprojecties beter kan worden gedefinieerd. Spin-ups zijn zo tijdrovend dat geen van beide momenteel haalbaar is.

Het nieuwe algoritme zal ons ook in staat stellen om simulaties met meer ruimtelijk detail uit te voeren. Momenteel vertellen oceaanmodellen ons doorgaans niets over kenmerken die kleiner zijn dan 1° breedte in lengte- en breedtegraad (ongeveer 110 km op de evenaar). Maar veel kritische verschijnselen in de oceaan vinden plaats op veel kleinere schaal – tientallen meters tot enkele kilometers – en een hogere ruimtelijke resolutie zal zeker leiden tot nauwkeurigere klimaatprojecties, bijvoorbeeld van zeespiegelstijging, stormvloeden en orkaanintensiteit.

Hoe het werkt

Zoals zoveel ‘nieuw’ onderzoek is het gebaseerd op een oud idee, in dit geval een idee dat eeuwen teruggaat tot de Zwitserse wiskundige Leonhard Euler. Dit heet 'reeksversnelling' en je kunt het zien als het gebruiken van informatie uit het verleden om te extrapoleren naar een 'betere' toekomst.

Het wordt onder andere veel gebruikt door scheikundigen en materiaalwetenschappers om de structuur van atomen en moleculen te berekenen, een probleem dat toevallig meer dan de helft van de supercomputerbronnen in de wereld in beslag neemt.

Sequentieversnelling is handig als een probleem iteratief van aard is, precies wat spin-up van een klimaatmodel is:je voedt de output van het model terug als input voor het model. Spoel en herhaal totdat de output gelijk wordt aan de input en je je evenwichtsoplossing hebt gevonden.

In de jaren zestig was Harvard-wiskundige D.G. Anderson heeft een slimme manier bedacht om meerdere eerdere outputs te combineren in één input, zodat je met veel minder herhalingen van de procedure tot de uiteindelijke oplossing komt. Ongeveer tien keer minder dan ik ontdekte toen ik zijn schema toepaste op het spin-upprobleem.

Het ontwikkelen van een nieuw algoritme is het makkelijke gedeelte. Anderen zover krijgen dat ze er gebruik van maken, is vaak de grotere uitdaging. Het is daarom veelbelovend dat het Britse Met Office en andere centra voor klimaatmodellering het gaan uitproberen.

Het volgende grote IPCC-rapport moet in 2029 verschijnen. Dat lijkt nog ver weg, maar gezien de tijd die het kost om modellen te ontwikkelen en simulaties uit te voeren, zijn de voorbereidingen al in volle gang. Gecoördineerd door een internationale samenwerking bekend als het Coupled Model Intercomparison Project, zullen deze simulaties de basis vormen voor het rapport. Het is spannend om te bedenken dat mijn algoritme en software een bijdrage kunnen leveren.

Meer informatie: Samar Khatiwala, Efficiënte spin-up van Earth System-modellen met behulp van reeksversnelling, Wetenschappelijke vooruitgang (2024). DOI:10.1126/sciadv.adn2839

Journaalinformatie: Wetenschappelijke vooruitgang

Aangeboden door The Conversation

Dit artikel is opnieuw gepubliceerd vanuit The Conversation onder een Creative Commons-licentie. Lees het originele artikel.