Wetenschap
Krediet:CC0 Publiek Domein
Om machines echt intelligent te maken, sommige onderzoekers van kunstmatige intelligentie (AI) zijn van mening dat computers moeten herkennen, menselijke emoties te begrijpen en erop te reageren. Kortom, machines moeten zijn uitgerust met emotionele intelligentie:het vermogen om emoties te uiten en te identificeren, en empathisch met anderen om te gaan.
Die ondubbelzinnig menselijke kwaliteit "is de sleutel tot het ontsluiten van de opkomst van machines die niet alleen algemener zijn, robuust en efficiënt, maar die ook in lijn zijn met de waarden van de mensheid, "Microsoft AI-onderzoekers Daniel McDuff en Ashish Kapoor schreven in een recent artikel.
Door emotionele intelligentie te beheersen, kunnen computers mensen beter ondersteunen in hun fysieke en mentale gezondheid, evenals het leren van nieuwe vaardigheden, schreef McDuff en Kapoor.
De Seattle Times sprak met Microsoft's Corporate Vice President of AI and Research, Lili Cheng, over ontwikkelingen in machine emotionele intelligentie, en wat het voor mensen betekent. (Het gesprek is bewerkt voor lengte en duidelijkheid.)
Vraag:Wat is de technologie achter machine-emotionele intelligentie?
A:De manier waarop het menselijk brein werkt, is dat er een aantal dingen zijn die je in de loop van de tijd hebt geleerd, maar dan zijn er nog andere dingen die je heel intuïtief doet. Vlak voordat je een ongeluk krijgt, je lichaam kan gespannen raken en je denkt misschien niet na over (hoe je zou reageren) op bepaalde dingen - (in verschillende andere situaties) die van toepassing zijn op veel verschillende emoties zoals geluk en vreugde.
(Het artikel van McDuff en Kapoor) keek naar hoe mensen met angst reageren. Kunnen we geautomatiseerde systemen helpen om van dezelfde technieken te leren?
Ze namen een simulatie van iemand die rijdt, en ze maten de pols van de persoon om te zien hoe ze reageerden als je probeert te voorkomen dat je crasht of iets raakt.
En toen bouwden ze dat model en pasten het toe op een geautomatiseerde auto die door dezelfde simulatie rijdt. Ze ontdekten dat het toepassen van de vecht-of-vlucht (reactie) die een persoon (ervaringen), daar een algoritme omheen bouwen, en door dat toe te passen op een geautomatiseerde auto, reageerde het in sommige situaties heel snel.
Ze gebruiken niet alleen angst. Ze combineren dat met de andere technologie die rationeler is, net zoals een mens zou doen, omdat je niet altijd alleen reageert op angst.
Ze kunnen sommige dingen in een virtuele omgeving simuleren en toch deze tests doen zonder dat ze echte auto's hoeven te laten instrumenteren. Het zou heel moeilijk zijn om dit soort tests in de echte wereld te doen.
Vraag:Wat zijn enkele andere praktische toepassingen voor machine-emotionele intelligentie?
A:De echte droom is dat (emotionele intelligentie) je beter kan helpen in situaties die meer betekenis voor je hebben - (bijvoorbeeld ) je zit in een stressvolle vergadering, of je wilt een nieuw iemand ontmoeten. En mensen helpen hun emoties beter te beheersen en het beter te doen in dat soort situaties zou echt geweldig zijn ... (niet alleen) "open mijn e-mail. Help me die taak gedaan te krijgen. Help me mijn vergadering sneller op te zetten."
Vraag:Hoe kunnen deze machines mensen helpen hun emoties te beheersen?
Xiaoice is een zeer populaire chatbot in China. Het begon als een onderzoeksproject. Het doel van het project is echt fascinerend, want in tegenstelling tot veel van de hulp die u helpt om uw werk gedaan te krijgen, het doel van Xiaoice was gewoon om een boeiende ervaring te maken. Hoe kunnen we het systeem helpen mensen aan te moedigen om (met elkaar) te praten en hen aan te moedigen deze chatbot op te nemen in gesprekken?
Een van de dingen die (Xiaoice) in het gesprek doet, is begrijpen, "Oh, dat is een vraag, of dit is een tijd dat je gewoon met me wilt praten, en je wilt niet echt dat ik een reactie krijg." Dus (de chatbot) probeert het gesprek op te splitsen in verschillende manieren waarop een persoon over communicatie zou kunnen denken. Misschien luistert de bot gewoon wat meer.
Ze hebben urenlange gesprekken met mensen die eigenlijk alleen maar empathie nodig hebben, met iemand praten, om meer plezier te doen, sociale dingen. Dat is een voorbeeld van een systeem dat is ontworpen om meer emotioneel-sociale interacties te bestuderen, dan alleen maar productief te zijn.
Vraag:Het is net een therapiebot?
Het zou mogelijk (kunnen) zijn. Een van de vaardigheden kan zijn om je te helpen als je relatieproblemen hebt. Maar het doet ook heel praktische dingen, zoals je Engels leert, of helpt u met vertalen, zodat het beter begrijpt wat uw doel is en vervolgens de vaardigheden aan het licht brengt die u zou willen.
Vraag:Hoe kan de bot begrijpen of iemand verdrietig is of een vraag stelt?
A:Het zijn veel verschillende dingen - het kan de intonatie van je stem zijn of de daadwerkelijke woorden die je zegt, evenals het soort interactie dat je hebt, uw geschiedenis en enkele van de dingen die u in het verleden hebt gedaan.
Vraag:Kan emotionele intelligentie ook helpen om de instandhouding van vooroordelen in AI-algoritmen te bestrijden?
A:Het is onze droom - we zijn er nog lang niet van bewust wanneer AI bevooroordeeld is en wanneer niet. Dat probleem hebben we nog steeds met mensen, dus dat is waarschijnlijk iets waar we nog lang aan moeten werken. Maar als we er nu niet aan beginnen te denken en eraan te werken aan de basis van de systemen die we creëren, dan zullen we zeker systemen creëren die veel van de problemen die we in de samenleving zien, nabootsen.
We werken samen met een groep genaamd OpenAI om ervoor te zorgen dat de tools beschikbaar zijn, zodat je geen doctoraat in AI hoeft te hebben om dingen te maken. Mensen trainen om het soort dingen te bouwen dat ze willen ervaren, is van cruciaal belang voor de samenleving als geheel.
En (in termen van) datasets, we willen ervoor zorgen dat mannen en vrouwen, oudere en jongere mensen, en degenen die op verschillende plaatsen wonen, zijn allemaal vertegenwoordigd in de gegevens die we gebruiken om de (AI) modellen te trainen. Als het maar een zeer beperkte kant van de samenleving is, dan zul je vanuit zakelijk perspectief niet veel van je klanten bereiken, en we willen dat deze tools veel problemen oplossen.
Vraag:Hoe ver denk je dat ontwikkelaars verwijderd zijn van het integreren van emotionele intelligentie in elke AI-machine?
Het hangt ervan af hoe je emotionele intelligentie definieert. Wat ik zo leuk vind aan conversatie-AI, is dat vanaf een heel basaal niveau, als je geen menselijke kwaliteiten in de systemen hebt, ze voelen zich gebroken. Als iets niet weet hoe te reageren als je het begroet, of iets van je geschiedenis niet kent, ze voelen zich niet erg intelligent.
In veel van de gesprekssystemen die we zien, mensen denken al vroeg (in de ontwikkeling) na over (emotionele intelligentie). Vaak zijn de mensen die de systemen ontwerpen geen ingenieurs, maar schrijvers, of het zijn ontwerpers die hebben nagedacht over het soort emoties dat je zou kunnen hebben als je een product gebruikt. We zijn nog ver verwijderd van het automatiseren van dat (proces). Maar ik vind het geweldig om mensen in het begin te zien nadenken over (emotionele intelligentie).
V:Voorziet u mogelijke gevaren voor machines met emotionele intelligentie?
A:Zoals met alles, hoe meer dingen natuurlijk lijken, we moeten ervoor zorgen dat mensen begrijpen wanneer dingen echt zijn of niet. Voor alles wat we doen, we hebben een ethische commissie om de producten van Microsoft te bekijken en we hebben een reeks ontwerprichtlijnen.
We passen privacywetten toe op alles wat we doen en ... ervoor zorgen dat we geen vooringenomenheid hebben in onze eigen gegevens is van cruciaal belang voor elk product dat we hebben. We proberen deze richtlijnen te delen met iedereen die onze tools gebruikt om hun eigen ervaring te creëren.
©2019 The Seattle Times
Gedistribueerd door Tribune Content Agency, LLC.
Wetenschap © https://nl.scienceaq.com