science >> Wetenschap >  >> Elektronica

Wall Street-geheimen gebruiken om de kosten van cloudinfrastructuur te verlagen

Krediet:CC0 Publiek Domein

Beleggers op de aandelenmarkt vertrouwen vaak op theorieën over financiële risico's die hen helpen het rendement te maximaliseren en financiële verliezen als gevolg van marktschommelingen te minimaliseren. Deze theorieën helpen beleggers een evenwichtige portefeuille te behouden om ervoor te zorgen dat ze nooit meer geld zullen verliezen dan ze op een bepaald moment willen opgeven.

Geïnspireerd door die theorieën, MIT-onderzoekers hebben in samenwerking met Microsoft een "risicobewust" wiskundig model ontwikkeld dat de prestaties van cloud computing-netwerken over de hele wereld zou kunnen verbeteren. Opmerkelijk, cloudinfrastructuur is extreem duur en verbruikt veel van de wereldenergie.

Hun model houdt rekening met faalkansen van verbindingen tussen datacenters over de hele wereld, vergelijkbaar met het voorspellen van de volatiliteit van aandelen. Vervolgens, het voert een optimalisatie-engine uit om verkeer via optimale paden toe te wijzen om verlies te minimaliseren, terwijl het totale gebruik van het netwerk wordt gemaximaliseerd.

Het model kan grote cloudserviceproviders, zoals Microsoft, Amazone, en Google—beter gebruik maken van hun infrastructuur. De conventionele benadering is om links inactief te houden om onverwachte verkeersverschuivingen als gevolg van linkstoringen op te vangen, dat is een verspilling van energie, bandbreedte, en andere middelen. Het nieuwe model, genaamd TeaVar, anderzijds, garandeert dat voor een bepaald percentage van de tijd, laten we zeggen, 99,9 procent:het netwerk kan al het dataverkeer aan, dus het is niet nodig om links inactief te houden. Gedurende die 0,01 procent van de tijd, het model houdt de gegevens ook zo laag mogelijk.

In experimenten op basis van gegevens uit de echte wereld, het model ondersteunde drie keer de verkeersdoorvoer als traditionele methoden voor verkeersengineering, met behoud van hetzelfde hoge niveau van netwerkbeschikbaarheid. Een paper waarin het model en de resultaten worden beschreven, zal deze week worden gepresenteerd op de ACM SIGCOMM-conferentie.

Een beter netwerkgebruik kan serviceproviders miljoenen dollars besparen, maar de voordelen zullen "doorsijpelen" naar de consument, zegt co-auteur Manya Ghobadi, de TIBCO Career Development Assistant Professor bij het MIT Department of Electrical Engineering and Computer Science en een onderzoeker bij het Computer Science and Artificial Intelligence Laboratory (CSAIL).

"Een grotere benutte infrastructuur is niet alleen goed voor cloudservices, het is ook beter voor de wereld, ", zegt Ghobadi. "Bedrijven hoeven minder infrastructuur aan te schaffen om diensten aan klanten te verkopen. Plus, het efficiënt kunnen gebruiken van datacenterbronnen kan enorme hoeveelheden energieverbruik door de cloudinfrastructuur besparen. Dus, er zijn voordelen voor zowel de gebruikers als het milieu op hetzelfde moment."

Naast Ghobadi op de krant staan ​​haar leerlingen Jeremy Bogle en Nikhil Bhatia, beide van CSAIL; Ishai Menache en Nikolaj Bjorner van Microsoft Research; en Asaf Valadarsky en Michael Schapira van de Hebreeuwse Universiteit.

op het geld

Cloudserviceproviders gebruiken netwerken van glasvezelkabels die ondergronds lopen, datacenters in verschillende steden met elkaar verbinden. Om het verkeer om te leiden, de providers vertrouwen op "traffic engineering" (TE)-software die de databandbreedte – de hoeveelheid data die in één keer kan worden overgedragen – optimaal toewijst via alle netwerkpaden.

Het doel is om maximale beschikbaarheid voor gebruikers over de hele wereld te garanderen. Maar dat is een uitdaging wanneer sommige koppelingen onverwacht kunnen mislukken, als gevolg van een daling van de optische signaalkwaliteit als gevolg van uitval of doorgesneden lijnen tijdens de bouw, onder andere factoren. Om robuust te blijven tegen falen, providers houden veel links bij een zeer laag gebruik, op de loer liggen om volledige gegevensladingen van neergehaalde links te absorberen.

Dus, het is een lastige afweging tussen netwerkbeschikbaarheid en gebruik, wat een hogere datadoorvoer mogelijk zou maken. En dat is waar traditionele TE-methoden falen, zeggen de onderzoekers. Ze vinden optimale paden op basis van verschillende factoren, maar kwantificeer nooit de betrouwbaarheid van links. "Ze zeggen niet, 'Deze link heeft een grotere kans om up and running te zijn, dus dat betekent dat je meer verkeer hierheen zou moeten sturen, "zegt Bogle. "De meeste links in een netwerk werken met een lage bezetting en verzenden niet zoveel verkeer als ze zouden kunnen verzenden."

De onderzoekers ontwierpen in plaats daarvan een TE-model dat kernwiskunde aanpast van "voorwaardelijke risicowaarde, " een risicobeoordelingsmaatstaf die het gemiddelde verlies aan geld kwantificeert. Met beleggen in aandelen, als je een eendaagse 99 procent voorwaardelijke waarde hebt met een risico van $50, uw verwachte verlies van het slechtste scenario van 1 procent op die dag is $ 50. Maar 99 procent van de tijd, je zult het veel beter doen. Die maatstaf wordt gebruikt om te beleggen in de aandelenmarkt, wat notoir moeilijk te voorspellen is.

"Maar de wiskunde past eigenlijk beter bij onze cloudinfrastructuur, " zegt Ghobadi. "Meestal, verbindingsfouten zijn te wijten aan de ouderdom van de apparatuur, dus de kansen op mislukking veranderen niet veel in de tijd. Dat betekent dat onze kansen betrouwbaarder zijn, vergeleken met de beurs."

Risicobewust model

In netwerken, gegevensbandbreedteaandelen zijn analoog aan geïnvesteerd "geld, " en de netwerkapparatuur met verschillende faalkansen zijn de "voorraden" en hun onzekerheid van veranderende waarden. Met behulp van de onderliggende formules, de onderzoekers ontwierpen een "risicobewust" model dat, net als zijn financiële tegenhanger, garandeert dat gegevens 99,9 procent van de tijd hun bestemming bereiken, maar houdt verkeersverlies tot een minimum beperkt tijdens de worstcasescenario's van 0,1 procent. Dat stelt cloudproviders in staat om de afweging tussen beschikbaarheid en gebruik af te stemmen.

De onderzoekers brachten statistisch drie jaar aan netwerksignaalsterkte in kaart van Microsoft's netwerken die zijn datacenters verbinden met een waarschijnlijkheidsverdeling van linkstoringen. De invoer is de netwerktopologie in een grafiek, met bron-bestemmingsstromen van gegevens verbonden via lijnen (links) en knooppunten (steden), waarbij aan elke link een bandbreedte is toegewezen.

De faalkansen werden verkregen door elke 15 minuten de signaalkwaliteit van elke verbinding te controleren. Als de signaalkwaliteit ooit onder een ontvangstdrempel kwam, zij beschouwden dat als een verbindingsfout. Alles hierboven betekende dat de link actief was. Van dat, het model genereerde een gemiddelde tijd dat elke link omhoog of omlaag was, en berekende een faalkans - of "risico" - voor elke link in elk tijdvenster van 15 minuten. Uit die gegevens, het was in staat om te voorspellen wanneer riskante links zouden falen in een bepaald tijdsbestek.

De onderzoekers hebben het model vergeleken met andere TE-software op gesimuleerd verkeer dat via netwerken van Google wordt verzonden, IBM, ATT, en anderen die zich over de wereld verspreiden. De onderzoekers creëerden verschillende faalscenario's op basis van hun kans van optreden. Vervolgens, ze stuurden gesimuleerde en real-world dataverzoeken via het netwerk en spoorden hun modellen aan om bandbreedte toe te wijzen.

Het model van de onderzoekers hield betrouwbare verbindingen die bijna op volle capaciteit werkten, terwijl gegevens worden weggestuurd van riskantere koppelingen. Over traditionele benaderingen, hun model voerde drie keer zoveel gegevens door het netwerk, terwijl u er nog steeds voor zorgt dat alle gegevens op hun bestemming terechtkomen. De code is gratis beschikbaar op GitHub.