Wetenschap
Economen maakten in hun onderzoek voorheen weinig gebruik van high-performance computers (HPC). Dit ondanks het feit dat de complexe interacties en heterogeniteit van hun modellen er snel toe kunnen leiden dat ze honderden dimensies bereiken, die niet met conventionele methoden kunnen worden berekend. Vroeger, Voor het beantwoorden van complexe vragen werden daarom vaak vereenvoudigde modellen opgesteld. Deze modellen losten een aantal problemen op, maar ze kunnen ook valse voorspellingen geven, legt Simon Scheidegger uit, Senior assistent bij de afdeling Banking and Finance van de Universiteit van Zürich. Bijvoorbeeld, het kwantitatief bestuderen van optimaal monetair beleid in de nasleep van een financiële crisis kan niet goed worden bereikt met de conventionele methoden. Echter, het berekenen van hoogdimensionale modellen op een supercomputer is ook niet eenvoudig. Tot voor kort, onderzoekers misten geschikte numerieke analyse en zeer efficiënte software.
De vloek van dimensionaliteit
Anders dan in natuurkundige modellen, waarin tijd wordt beschouwd als een vierde dimensie naast de drie ruimtelijke dimensies, economische modellen moeten rekening houden met tien of zelfs honderd keer meer dimensies. Zelfs een "eenvoudig" model van pensioenverzekering in één land, die tot doel heeft de welvaart van zijn samenleving op elk jaar van leeftijd af te beelden, laat duidelijk zien hoe snel een hogere dimensionaliteit wordt bereikt:"Als we aannemen dat mensen gemiddeld 80 jaar oud worden en vanaf hun 20e gaan verdienen, en voor elk jaar de welvaart willen bepalen, we hebben al 60 dimensies, " legt Scheidegger uit. Bovendien mensen nemen hun huidige beslissingen, rekening houdend met toekomstige onzekerheden. Ideaal, een model zou met al deze invloeden rekening moeten houden.
Er zijn twee belangrijke knelpunten bij het berekenen van dergelijke complexe economische modellen. De eerste is het recursief benaderen van de hoogdimensionale functies met behulp van vele iteratiestappen. Tegelijkertijd, systemen van niet-lineaire vergelijkingen moeten worden opgelost op miljoenen rasterpunten die het model beschrijven. Het berekenen van zo'n model kan uren en soms dagen rekentijd vergen, zelfs op krachtige supercomputers zoals Piz Daint.
Genest model
Om een zeer efficiënte oplossingsmethode te vinden die recursief de economische besluitvormingsregels kan berekenen (bekend als beleidsfuncties), de onderzoekers combineerden zogenaamde sparse grids met een hoogdimensionaal modelreductieraamwerk. "De resulterende lineaire combinatie van dunne rasters, die het model en dus de beleidsfuncties beschrijven, zijn aan elkaar genest als een Russische pop, en zijn zo opgesteld dat ze de oorspronkelijke hoogdimensionale ruimte optimaal benaderen en beschrijven, ", legt Scheidegger uit. Het mooie is dat de code voor het berekenen van de afzonderlijke rasters en hun combinatie in hoge mate parallel is. Zelfs in kleine modellen met "slechts" 50 afmetingen, de methode schaalt efficiënt op Piz Daint tot wel 1, 000 computerknooppunten tegelijk. In simpele termen, het dimensionale decompositiekader zorgt ervoor dat alleen de relevante rasterpunten en afmetingen die het betreffende model beschrijven, hoeven te worden berekend. Om de tijd die nodig is om de functies op te lossen verder te minimaliseren en de communicatie tussen de processors en de processen die erop draaien zeer efficiënt te houden, de onderzoekers gebruikten ook een hybride parallellisatieschema (Message Passing Interface (MPI) en Intel(R) threading-bouwstenen (TBB)).
Scheidegger en zijn collega's hebben zo een methode ontwikkeld die sterk rekening houdt met de heterogeniteiten en oversimplificatie vermijdt. Het werkt ook generiek en kan dus worden toegepast op een verscheidenheid aan problemen, van modellen voor overheidsfinanciën, zoals staatspensioenen, naar centralebankmodellen. "Zoals het geval is in computerondersteunde natuurkunde of scheikunde, de nieuwe methode moet het mogelijk maken om modellen in de economie fundamenteel op te lossen, dat is ab initio, en vervolgens geconfronteerd met real-world data en waar nodig aangepast, ’ zegt Scheidegger.
Verder onderzoek naar dit onderwerp zal plaatsvinden in een project voor het Platform for Advanced Scientific Computing (PASC).
Wetenschap © https://nl.scienceaq.com