Wetenschap
Virtuele karakters zijn misschien binnenkort slimmer dan wij. Michelangelus/Shutterstock
Het meeste onderzoek naar de ethiek van kunstmatige intelligentie (AI) betreft het gebruik ervan voor wapens, transport of profilering. Hoewel de gevaren van een autonome, racistische tank niet kunnen worden onderschat, is er nog een ander aspect aan dit alles. Hoe zit het met onze verantwoordelijkheden ten opzichte van de AI's die we creëren?
Massively multiplayer online role-playing games (zoals World of Warcraft) zijn pocketrealiteiten die voornamelijk worden bevolkt door niet-spelerpersonages. Op dit moment zijn deze karakters niet bijzonder slim, maar geef het 50 jaar en ze zullen het worden.
Sorry? Is 50 jaar niet genoeg? Neem 500. Neem 5.000.000. We hebben de rest van de eeuwigheid om dit te bereiken.
Wil je computers op planeetformaat? Jij mag ze hebben. U wilt computers gemaakt van menselijk hersenweefsel? Jij mag ze hebben. Uiteindelijk geloof ik dat we zullen virtuele werelden hebben met karakters die net zo slim zijn als wij - zo niet slimmer - en in het volledige bezit van vrije wil. Wat zullen onze verantwoordelijkheden jegens deze wezens zijn? We zullen per slot van rekening de letterlijke goden zijn van de werkelijkheden waarin ze leven, en de fysica van hun werelden beheersen. We kunnen met ze doen wat we willen.
Dus dat allemaal weten... moeten we?
Ethische moeilijkheden van de vrije wil
Zoals ik in mijn recente boek heb onderzocht, komt ethiek, wanneer er 'zou moeten' in het spel is, tussen en neemt het over - zelfs voor videogames. De eerste vraag die moet worden gesteld, is of onze gamekarakters van de toekomst het waard zijn om als morele entiteiten te worden beschouwd of gewoon stukjes in een database zijn. Als dat laatste het geval is, hoeven we ons geweten er niet meer mee lastig te vallen dan we zouden doen met tekens in een tekstverwerker.
De vraag is echter eigenlijk onbespreekbaar. Als we onze karakters maken om te zijn vrijdenkende wezens, dan moeten we ze behandelen alsof ze zijn dergelijke — ongeacht hoe ze eruitzien voor een externe waarnemer.
Als dat het geval is, kunnen we dan onze virtuele werelden uitschakelen? Door dit te doen, zouden miljarden intelligente wezens tot niet-bestaan kunnen worden veroordeeld. Zou het desondanks goed zijn als we een kopie van hun wereld bewaren op het moment dat we het beëindigen? Betekent de theoretische mogelijkheid dat we hun wereld weer kunnen inschakelen precies zoals het was, dat we niet eigenlijk zijn hen vermoorden? Wat als we niet over de originele spelsoftware beschikken?
Kunnen we deze personages op legitieme wijze laten lijden? Wijzelf implementeren het concept zelf, dus het gaat er niet zozeer om of het oké is om ze te kwellen, maar of het überhaupt iets is om ze te kwellen. In moderne samenlevingen is de standaardpositie dat het immoreel is om vrijdenkende individuen te laten lijden, tenzij ze ermee instemmen of het is om hen (of iemand anders) te redden van iets ergers. We kunnen onze personages niet vragen om ermee in te stemmen om geboren te worden in een wereld van lijden - ze zullen niet bestaan wanneer we het spel maken.
Dus, hoe zit het met het "iets ergers" alternatief? Als je een vrije wil hebt, moet je intelligent zijn, dus moet je zelf ook een moreel wezen zijn. Dat betekent dat je moet hebben ontwikkeld moraal, dus het moet mogelijk zijn dat er slechte dingen met je gebeuren. Anders had je niet kunnen nadenken over wat goed of fout is om je moraal te ontwikkelen. Anders gezegd, tenzij er slechte dingen gebeuren, is er geen vrije wil. Het verwijderen van de vrije wil van een wezen komt neer op het vernietigen van het wezen dat het eerder was, dus ja, we moeten lijden toestaan of het concept van een intelligent karakter is een contradictio in terminis.
Het hiernamaals?
Aanvaardend dat onze karakters van de toekomst vrijdenkende wezens zijn, waar zouden ze dan in een belangrijke hiërarchie passen? Over het algemeen zouden mensen, bij een directe keuze tussen het redden van een intelligent wezen (zoals een peuter) of een louter bewust wezen (zoals een hond), het eerste boven het laatste verkiezen. Gegeven een vergelijkbare keuze tussen het redden van een echte hond of een virtuele heilige, welke zou zegevieren?
Houd in gedachten dat als je personages zichzelf als morele wezens zien, maar jij ze niet als zodanig ziet, ze zullen denken dat je een eikel bent. Als Alphinaud Leveilleur, een personage in Final Fantasy XIV , zegt het netjes (spoiler:hij heeft net ontdekt dat zijn wereld is gecreëerd door de acties van wezens die hem als gevolg daarvan niet als echt levend beschouwen):"Wij definieer onze waarde, niet de omstandigheden van onze schepping!"
Gaan we onze personages laten sterven? Het is extra werk om het concept te implementeren. Als ze eeuwig leven, maken we ze dan onkwetsbaar of voorkomen we dat ze doodgaan? Het leven zou toch niet leuk zijn als je in een blender bent gevallen. Als ze dood gaan, verplaatsen we ze dan naar de gamehemel (of de hel) of wissen we ze gewoon?
Dit zijn niet de enige vragen die we kunnen stellen. Kunnen we ideeën in hun hoofd inbrengen? Kunnen we hun wereld veranderen om met hen te rotzooien? Leggen we ze onze moraal op of laten we ze hun eigen moraal ontwikkelen (waar we het misschien niet mee eens zijn)? Er zijn er nog veel meer.
Uiteindelijk is de grootste vraag:moeten we in de eerste plaats intelligente karakters maken?
Nu zal het je zijn opgevallen dat ik hier veel vragen heb gesteld. Je vraagt je misschien af wat de antwoorden zijn.
Nou, ik ook! Dat is het punt van deze oefening. De mensheid heeft nog geen ethisch kader voor het scheppen van werkelijkheden waarvan wij goden zijn. Er bestaat nog geen systeem van meta-ethiek om ons te helpen. We moeten dit uitwerken voor we bouwen werelden bevolkt door wezens met een vrije wil, of het nu over 50, 500, 5.000.000 jaar is of over morgen. Dit zijn vragen voor jij te beantwoorden.
Wees echter voorzichtig met hoe je dit doet. Je kunt een precedent scheppen.
Wij zijn zelf de niet-speler karakters van Reality.
Wetenschap © https://nl.scienceaq.com