science >> Wetenschap >  >> Elektronica

Advies:AI zoals HAL 9000 kan nooit bestaan ​​omdat echte emoties niet programmeerbaar zijn

HAL 9000 is een van de bekendste kunstmatige intelligentie-personages van de moderne film. Deze superieure vorm van bewuste computer begint aan een missie naar Jupiter, samen met een menselijke bemanning, in Stanley Kubricks iconische film 2001:A Space Odyssey, die momenteel zijn 50e jaar sinds de release viert.

HAL is in staat tot spraakproductie en -begrip, gezichtsherkenning, liplezen – en schaken. Zijn superieure rekenvaardigheid wordt versterkt door unieke menselijke eigenschappen, te. Het kan emotioneel gedrag interpreteren, redeneren en kunst waarderen.

Door HAL-emoties te geven, schrijver Arthur C. Clarke en filmmaker Stanley Kubrick maakten er een van de meest mensachtige fictieve technologieën ooit van. In een van de mooiste scènes in de sci-fi geschiedenis, het zegt dat het "bang" is wanneer missiecommandant Dr. David Bowman zijn geheugenmodules begint los te koppelen na een reeks moorddadige gebeurtenissen.

HAL is geprogrammeerd om de bemanning van het ruimteschip Discovery optimaal te assisteren. Het heeft controle over het hele schip, en duizelingwekkende intelligentie om het bij zijn taak te helpen. Maar al snel nadat we kennis hebben gemaakt met HAL, we kunnen het niet helpen het gevoel te hebben dat hij zich zorgen maakt – hij beweert zelfs dat hij angst ervaart – en dat hij inlevingsvermogen heeft, hoe klein ook. Maar hoewel er niets is om de idee dat zo'n emotionele AI het daglicht zou kunnen zien, als zo'n diepte van gevoelens zou worden opgenomen in technologie in de echte wereld, ze zouden helemaal nep moeten zijn.

Een 'perfecte' AI

Wanneer, tijdens de film, Bowman begint HAL's functies handmatig te overschrijven, het vraagt ​​hem om te stoppen, en nadat we getuige waren van een fascinerende vernietiging van HAL's "mentale" vermogens, de AI probeert zichzelf schijnbaar te troosten door Daisy Bell te zingen - naar verluidt het allereerste nummer ooit geproduceerd door een computer.

In feite, kijkers beginnen te voelen dat Bowman HAL vermoordt. De ontkoppeling voelt als een wraakzuchtige beëindiging, na getuige te zijn geweest van eerdere gebeurtenissen van de film. Maar hoewel HAL emotionele uitspraken doet, een echte wereld AI zou zeker beperkt zijn tot het hebben van alleen het vermogen om te redeneren, en beslissingen nemen. De kou, harde waarheid is dat we – ondanks wat computerwetenschappers zeggen – nooit in staat zullen zijn om emoties te programmeren zoals de fictieve makers van HAL dat deden, omdat we ze niet begrijpen. Psychologen en neurowetenschappers proberen zeker te leren hoe emoties interageren met cognitie, maar toch blijven ze een mysterie.

Neem ons eigen onderzoek, bijvoorbeeld. In een studie uitgevoerd met Chinees-Engelse tweetaligen, we onderzochten hoe de emotionele waarde van woorden de onbewuste mentale werking kan veranderen. Toen we onze deelnemers positieve en neutrale woorden presenteerden, zoals "vakantie" of "boom", onbewust hebben ze deze woordvormen in het Chinees teruggevonden. Maar toen de woorden een negatieve betekenis hadden, zoals "moord" of "verkrachting", hun hersenen blokkeerden de toegang tot hun moedertaal - zonder hun medeweten.

Reden en emotie

Anderzijds, we weten veel over redeneren. We kunnen beschrijven hoe we tot rationele beslissingen komen, schrijf regels en zet deze regels om in proces en code. Toch zijn emoties een mysterieuze evolutionaire erfenis. Hun bron is de bron van alles, en niet alleen een attribuut van de geest dat door ontwerp kan worden geïmplementeerd. Om iets te programmeren, je moet niet alleen weten hoe het werkt, je moet weten wat het doel is. De rede heeft doelen, emoties niet.

In een experiment uitgevoerd in 2015 we hebben dit kunnen testen. We vroegen moedertaalsprekers van Mandarijn Chinees die aan de Universiteit van Bangor studeren om een ​​kansspel voor geld te spelen. In elke ronde, ze moesten een voorgestelde weddenschap op het scherm aannemen of achterlaten, bijvoorbeeld 50% kans om 20 punten te winnen, en een kans van 50% om 100 punten te verliezen.

We veronderstelden dat het emotioneler voor hen zou zijn om feedback te geven in hun moedertaal, waardoor ze zich anders zouden gaan gedragen. vergeleken met wanneer ze feedback kregen in hun tweede taal, Engels. Inderdaad, wanneer ze positieve feedback kregen in het Chinees, ze hadden 10% meer kans om een ​​weddenschap aan te gaan in de volgende ronde, ongeacht het risico. Dit laat zien dat emoties het redeneren beïnvloeden.

Terug naar AI, aangezien emoties niet echt in een programma kunnen worden geïmplementeerd - hoe geavanceerd het ook is - kan de redenering van de computer nooit door zijn gevoelens worden veranderd.

Een mogelijke interpretatie van het vreemde "emotionele" gedrag van HAL is dat het geprogrammeerd was om emoties in extreme situaties te simuleren, waar het mensen zou moeten manipuleren, niet op basis van redenering, maar door een beroep te doen op hun emotionele zelf, wanneer de menselijke rede faalt. Dit is de enige manier waarop ik kan zien dat echte AI in dergelijke omstandigheden op overtuigende wijze emoties kan simuleren.

Naar mijn mening, we zullen niet, ooit, bouw een machine die voelt, hoopt, is bang, of gelukkig. En omdat dat een absolute voorwaarde is voor elke bewering dat we kunstmatige algemene intelligentie hebben voortgebracht, we zullen nooit een kunstmatige geest buiten het leven creëren.

Dit is precies waar de magie van 2001:A Space Odyssey ligt. Voor een moment, we worden ertoe gebracht het onmogelijke te geloven, dat pure sciencefiction de feiten van de wereld waarin we leven kan negeren.

Dit artikel is oorspronkelijk gepubliceerd op The Conversation. Lees het originele artikel.