Wetenschap
Krediet:CC0 Publiek Domein
De verwachtingen voor kunstmatige intelligentie zijn zeer reëel en zeer hoog. Een analyse in Forbes-projectopbrengsten van A.I. zal omhoogschieten van $ 1,62 miljard in 2018 naar $ 31,2 miljard in 2025. Het rapport bevatte ook een onderzoek waaruit bleek dat 84 procent van de ondernemingen gelooft dat ze investeren in A.I. zal leiden tot concurrentievoordelen.
"Het is opwindend om de enorme successen en vorderingen van de afgelopen jaren te zien, " zegt Daniël Jiang, assistent-professor industriële techniek aan de University of Pittsburgh Swanson School of Engineering. "Om deze trend voort te zetten, we zijn op zoek naar meer geavanceerde methoden voor algoritmen om strategieën te leren voor optimale besluitvorming."
Dr. Jiang ontwerpt algoritmen die beslissingsstrategieën leren in complexe en onzekere omgevingen. Door algoritmen te testen in gesimuleerde omgevingen, ze kunnen leren van hun fouten terwijl ze strategieën voor succes ontdekken en versterken. Om dit proces te perfectioneren, Dr. Jiang en vele onderzoekers in zijn vakgebied hebben simulaties nodig die de echte wereld weerspiegelen.
"Als industrieel ingenieurs, we werken meestal aan problemen met een operationele focus. Bijvoorbeeld, vervoer, logistiek en toeleveringsketens, energiesystemen en gezondheidszorg zijn verschillende belangrijke gebieden, " zegt hij. "Al die problemen zijn operaties met een hoge inzet met gevolgen in de echte wereld. Ze zijn niet de beste omgevingen om experimentele technologieën uit te proberen, vooral wanneer veel van onze algoritmen kunnen worden gezien als slimme manieren van herhaald 'trial and error' over alle mogelijke acties."
Eén strategie voor het voorbereiden van geavanceerde A.I. om realistische scenario's en complicaties aan te pakken, is het gebruik van historische gegevens. Bijvoorbeeld, Algoritmen konden tientallen jaren aan gegevens doornemen om erachter te komen welke beslissingen effectief waren en tot minder dan optimale resultaten leidden. Echter, onderzoekers hebben het moeilijk gevonden om algoritmen te testen die zijn ontworpen om adaptief gedrag te leren met alleen gegevens uit het verleden.
Dr. Jiang legt uit, "Historische gegevens kunnen een probleem zijn omdat de acties van mensen de gevolgen oplossen en geen alternatieve mogelijkheden bieden. Met andere woorden, het is moeilijk voor een algoritme om de vraag te stellen 'hoe zou het anders zijn als ik deur B zou kiezen in plaats van deur A?' In historische gegevens, alles wat we kunnen zien zijn de gevolgen van deur A."
Videospelletjes, als een alternatief, bieden rijke testomgevingen vol complexe besluitvorming zonder de gevaren van een onvolwassen A.I. volledig de baas. In tegenstelling tot de echte wereld, ze bieden een algoritme een veilige manier om van zijn fouten te leren.
"Ontwerpers van videogames bouwen geen games met het doel modellen of simulaties te testen, Dr. Jiang zegt. "Ze ontwerpen vaak games met een tweeledige missie:omgevingen creëren die de echte wereld nabootsen en spelers uitdagen om moeilijke beslissingen te nemen. Deze doelen komen toevallig ook overeen met wat we zoeken. Ook, spellen zijn veel sneller. In een paar uur realtime, we kunnen de resultaten van honderdduizenden gameplay-beslissingen evalueren."
Om zijn algoritme te testen, Dr. Jiang gebruikte een genre van videogames genaamd Multiplayer Online Battle Arena of MOBA. Games zoals League of Legends of Heroes of the Storm zijn populaire MOBA's waarin spelers een van de verschillende "helden" -personages besturen en proberen de bases van tegenstanders te vernietigen terwijl ze hun eigen bases beschermen.
Een succesvol algoritme voor het trainen van een gameplay A.I. moet verschillende uitdagingen overwinnen, zoals realtime besluitvorming en lange beslissingshorizonten - een wiskundige term voor wanneer de gevolgen van sommige beslissingen pas veel later bekend zijn.
"We hebben het algoritme ontworpen om 41 stukjes informatie te evalueren en vervolgens een van de 22 verschillende acties uit te voeren, inclusief beweging, aanvallen en speciale bewegingen, " zegt Dr. Jiang. "We vergeleken verschillende trainingsmethoden met elkaar. De meest succesvolle speler gebruikte een methode genaamd Monte Carlo tree search om gegevens te genereren, die vervolgens wordt ingevoerd in een neuraal netwerk."
Monte Carlo-boom zoeken is een strategie voor het nemen van beslissingen waarbij de speler willekeurig door een simulatie of een videogame beweegt. Het algoritme analyseert vervolgens de spelresultaten om meer gewicht te geven aan meer succesvolle acties. Na verloop van tijd en meerdere iteraties van het spel, hoe meer succesvolle acties aanhouden, en de speler wordt beter in het winnen van het spel.
"Ons onderzoek heeft ook enkele theoretische resultaten opgeleverd om aan te tonen dat het zoeken naar bomen in Monte Carlo een effectieve strategie is om een agent te trainen om moeilijke beslissingen in realtime te nemen, zelfs in een onzekere wereld, "Dokter Jiang legt uit.
Dr. Jiang publiceerde zijn onderzoek in een paper dat samen met Emmanuel Ekwedike en Han Liu is geschreven en presenteerde de resultaten op de 2018 International Conference on Machine Learning in Stockholm, Zweden afgelopen zomer.
Aan de Universiteit van Pittsburgh, hij blijft werken op het gebied van sequentiële besluitvorming met Ph.D. studenten Yijia Wang en Ibrahim El-Shar. Het team richt zich op problemen met betrekking tot het delen van ritten, energiemarkten, en volksgezondheid. Terwijl industrieën zich voorbereiden om A.I. belast met cruciale verantwoordelijkheden, Dr. Jiang zorgt ervoor dat de onderliggende algoritmen aan de top blijven.
Wetenschap © https://nl.scienceaq.com