Wetenschap
Een AI-agent geeft de reden voor het nemen van een beslissing in deze videogame. Krediet:Georgia Tech
Onderzoekers van het Georgia Institute of Technology, in samenwerking met Cornell University en University of Kentucky, hebben een kunstmatig intelligente (AI) agent ontwikkeld die automatisch natuurlijke taalverklaringen in realtime kan genereren om de motivaties achter zijn acties over te brengen. Het werk is ontworpen om mensen die betrokken zijn bij AI-agenten of robots het vertrouwen te geven dat de agent de taak correct uitvoert en een fout of foutief gedrag kan verklaren.
De agent gebruikt ook alledaagse taal die niet-experts kunnen begrijpen. de uitleg, of 'rationales' zoals de onderzoekers ze noemen, zijn ontworpen om herkenbaar te zijn en vertrouwen te wekken bij degenen die op de werkplek met AI-machines werken of met hen omgaan in sociale situaties.
"Als de kracht van AI moet worden gedemocratiseerd, het moet voor iedereen toegankelijk zijn, ongeacht hun technische vaardigheden, " zei Upol Ehsan, doctoraat student aan de School of Interactive Computing aan Georgia Tech en hoofdonderzoeker.
"Omdat AI alle aspecten van ons leven doordringt, er is een duidelijke behoefte aan mensgericht AI-ontwerp dat black-boxed AI-systemen begrijpelijk maakt voor alledaagse gebruikers. Ons werk is een belangrijke stap in de richting van het begrijpen van de rol van op taal gebaseerde verklaringen en hoe mensen ze waarnemen."
Het onderzoek werd ondersteund door het Office of Naval Research (ONR).
Onderzoekers ontwikkelden een deelnemersonderzoek om te bepalen of hun AI-agent beweegredenen kon bieden die menselijke reacties nabootsten. Toeschouwers keken hoe de AI-agent de videogame Frogger speelde en rangschikten vervolgens drie redenen op het scherm in volgorde van hoe goed elk de spelbeweging van de AI beschreef.
Van de drie geanonimiseerde rechtvaardigingen voor elke beweging - een door mensen gegenereerde reactie, de reactie van de AI-agent, en een willekeurig gegenereerde reactie - de deelnemers gaven eerst de voorkeur aan de door mensen gegenereerde redenen, maar de AI-gegenereerde reacties waren een goede tweede.
Frogger bood de onderzoekers de kans om een AI te trainen in een "sequentiële besluitvormingsomgeving, " wat een belangrijke onderzoeksuitdaging is, omdat beslissingen die de agent al heeft genomen, toekomstige beslissingen beïnvloeden. het uitleggen van de redenering aan experts is moeilijk, en nog meer bij het communiceren met niet-experts, volgens onderzoekers.
De menselijke toeschouwers begrepen het doel van Frogger om de kikker veilig thuis te brengen zonder geraakt te worden door rijdende voertuigen of te verdrinken in de rivier. De eenvoudige spelmechanica van omhoog gaan, omlaag, links of rechts, liet de deelnemers zien wat de AI aan het doen was, en om te evalueren of de beweegredenen op het scherm de verhuizing duidelijk rechtvaardigden.
De toeschouwers beoordeelden de beweegredenen op basis van:
AI-gegenereerde beweegredenen die door de deelnemers hoger werden gerangschikt, waren die die herkenning van omgevingscondities en aanpassingsvermogen toonden, evenals degenen die het bewustzijn van opkomende gevaren communiceerden en voor hen hadden gepland. Overbodige informatie die zojuist het voor de hand liggende of verkeerd gekarakteriseerde milieu vermeldde, bleek een negatief effect te hebben.
"Dit project gaat meer over het begrijpen van menselijke percepties en voorkeuren van deze AI-systemen dan over het bouwen van nieuwe technologieën, "zei Ehsan. "De kern van verklaarbaarheid is betekenisgeving. We proberen die menselijke factor te begrijpen."
Een tweede gerelateerde studie valideerde de beslissing van de onderzoekers om hun AI-agent te ontwerpen om een van twee verschillende soorten beweegredenen te kunnen bieden:
In deze tweede studie deelnemers kregen alleen AI-gegenereerde beweegredenen aangeboden na het bekijken van het AI-spel Frogger. Ze werden gevraagd het antwoord te selecteren dat hun voorkeur had in een scenario waarin een AI een fout maakte of zich onverwachts gedroeg. Ze wisten niet dat de beweegredenen waren gegroepeerd in de twee categorieën.
Met een 3-tegen-1 marge, deelnemers gaven de voorkeur aan antwoorden die werden geclassificeerd in de categorie "volledig beeld". Uit reacties bleek dat mensen het op prijs stelden dat AI nadacht over toekomstige stappen in plaats van alleen wat er op dat moment was, waardoor ze meer geneigd zijn om nog een fout te maken. Mensen wilden ook meer weten, zodat ze de AI direct konden helpen het dwalende gedrag op te lossen.
"Het gesitueerde begrip van de percepties en voorkeuren van mensen die met AI-machines werken, geeft ons een krachtige reeks bruikbare inzichten die ons kunnen helpen om beter mensgerichte, rationale-genererende, autonome agenten, " zei Mark Riedl, hoogleraar Interactive Computing en hoofd faculteitslid van het project.
Een mogelijke toekomstige richting voor het onderzoek zal de bevindingen toepassen op autonome agenten van verschillende typen, zoals begeleidende agenten, en hoe ze kunnen reageren op basis van de taak die voorhanden is. Onderzoekers zullen ook kijken naar hoe agenten in verschillende scenario's kunnen reageren, zoals tijdens een noodsituatie of bij het helpen van leraren in de klas.
Het onderzoek werd in maart gepresenteerd op de Association for Computing Machinery's Intelligent User Interfaces 2019 Conference. Het artikel is getiteld "Automated Rational Generation:A Technique for Explainable AI and its Effects on Human Perceptions." Ehsan zal een position paper presenteren waarin de ontwerp- en evaluatie-uitdagingen van mensgerichte Explainable AI-systemen worden benadrukt tijdens de komende Emerging Perspectives in Human-Centered Machine Learning-workshop op de ACM CHI 2019-conferentie, 4-9 mei, in Glasgow, Schotland.
Wetenschap © https://nl.scienceaq.com