science >> Wetenschap >  >> Elektronica

Een psychologische benadering van mens-automatisering interactie

Universitair docent psychologie Dr. Nathan Tenhundfeld, links, heeft onlangs de Advanced Teaming opgericht, Technologie, Automatisering, en Computing Lab om mens-machine-teaming te bestuderen. Krediet:Michael Mercier

Het wordt de griezelige vallei genoemd. Fans van de HBO-show "Westworld" of die de film "Ex Machina" hebben gezien, kennen het fenomeen misschien al. Maar voor degenen die dat niet zijn, het is in wezen het idee dat mensen zich op hun gemak voelen bij robots met humanoïde kenmerken, maar wordt erg ongemakkelijk wanneer de robot bijna maar niet precies op een mens lijkt.

Voor dr. Nathan Tenhundfeld, echter, de griezelige vallei is slechts een van de vele factoren waarmee hij rekening moet houden bij het onderzoeken van interactie tussen mens en automatisering als assistent-professor bij de afdeling psychologie aan de universiteit van Alabama in Huntsville (UAH).

"We bevinden ons op een uniek punt met de ontwikkeling van de technologie waarbij geautomatiseerde systemen of platforms niet langer een hulpmiddel zijn, maar een teamgenoot die is opgenomen in onze dagelijkse ervaringen, "zegt hij. "Dus we kijken naar commerciële platforms die dezelfde systemen aanbieden, maar in verschillende vormen om te zien of een bepaald uiterlijk of kenmerk de gebruiker beïnvloedt en op welke manier."

Neem bijvoorbeeld, de recente druk van het Amerikaanse ministerie van Defensie om automatisering op te nemen in oorlogsvoering. Als begrip, het is logisch:hoe meer robots we hebben die oorlogen voeren, hoe minder kosten er zijn voor het menselijk leven. Maar in de praktijk, het is een beetje ingewikkelder. Hoe moet een oorlogsrobot eruit zien? Een persoon? Een machine?

Om deze vragen te beantwoorden, Dr. Tenhundfeld werkt samen met een collega van de U.S. Air Force Academy, waar hij als postdoctoraal onderzoeker onderzoek deed, om "een enorme database van robots" te gebruiken, zodat ze bepalen hoe verschillende componenten de perceptie van de mogelijkheden van een robot kunnen beïnvloeden. "We willen dingen weten als past een robot met wielen of een rupsband beter bij onze verwachting van wat we naar de oorlog zouden moeten sturen versus een humanoïde robot?", zegt hij. "En, heeft het hebben van een gezicht op de robot invloed op of we hem in gevaar willen brengen?"

Een student in het ATTAC Lab neemt deel aan een vluchtsimulatie. Krediet:Michael Mercier

Zelfs als er gemakkelijke antwoorden zouden zijn - die er niet zijn - is er naast de gebruikersinterface van de robot nog een even belangrijke factor om te overwegen:vertrouwen. Om een ​​robot effectief te laten zijn, de gebruiker moet de informatie die hij verstrekt vertrouwen. Uitleggen, Dr. Tenhundfeld wijst op onderzoek dat hij deed op de Tesla Model X terwijl hij op de Academie was. Als we specifiek kijken naar de autoparkeerfunctie van de auto, hij en zijn team wilden de bereidheid van de gebruiker om de auto zijn taak te laten uitvoeren bepalen op basis van hun voorkeur voor het nemen van risico's of vertrouwen in hun capaciteiten.

"De gegevens suggereren dat geautomatiseerde voertuigen over het algemeen veiliger zijn dan mensen, maar mensen geven niet graag controle uit handen, "zegt hij lachend. "Dus we hadden dit patroon waarbij er in het begin hoge interventiepercentages waren, maar naarmate ze meer vertrouwen in het systeem kregen - nadat het niet zo nieuw was en het aan hun verwachtingen begon te voldoen - begonnen ze er meer op te vertrouwen en daalden de interventiepercentages."

De keerzijde van die medaille, echter, is het potentieel voor empathie in, of gehechtheid aan, een bepaald geautomatiseerd systeem waar gebruikers mogelijk vertrouwen in hebben gekregen. Om dit concept te illustreren, hij vertelt over een case study van explosievenopruimingsteams die robots inzetten om veilig bommen op te blazen. "Als ze de robots terug moeten sturen om gerepareerd te worden, ze hebben een probleem als ze een andere robot krijgen, "zegt hij. "Dus ze hebben dit vertrouwen in een specifieke robot gesteld, ook al is de intelligentie/capaciteit bij alle robots hetzelfde."

En opdat het niet begint te klinken alsof er al meer dan genoeg is voor Dr. Tenhundfeld om rekening mee te houden, er is ook situationeel vertrouwen, die ergens tussen vertrouwen en overtrust zit. In dit scenario, een gebruiker kan in de loop van de tijd een bepaald niveau van vertrouwen ontwikkelen, maar besef dan dat ze sommige aspecten niet zo veel vertrouwen als andere. "Stel dat ik een geautomatiseerd systeem heb, of robot, het verstrekken van inlichtingen in een missieplanningsomgeving, en het verpest dat, "zegt hij. "Misschien vertrouw ik het niet in een andere omgeving, zoals op het slagveld, ook al heeft het een andere fysieke belichaming voor gebruik in die omgeving, en kan duidelijk in staat zijn op het slagveld."

Kortom, de steeds digitaler wordende aard van onze wereld introduceert een schijnbaar eindeloze lijst van overwegingen als het erom gaat ervoor te zorgen dat geautomatiseerde systemen met succes aan de menselijke behoeften kunnen voldoen - waarmee Dr. Tenhundfeld rekening moet houden bij het onderzoek dat hij doet in zijn Advanced Teaming, Technologie, Automatisering, en computerlab, of ATTAC-lab. Maar gezien de rol van UAH als academische partner van deze opkomende industrie, het is een uitdaging die hij en zijn collega-onderzoekers zijn aangegaan. "Bedrijven zijn erop gericht om als eerste met een product op de markt te komen, " zegt hij. "We helpen hen het product te verbeteren zodat het goed werkt voor de gebruiker."