Wetenschap
Hoe kunnen we auto's zonder bestuurder ethisch maken? Krediet:van www.shutterstock.com
Wat willen we dat auto's zonder bestuurder doen bij onvermijdelijke dodelijke ongevallen?
Vandaag publiceerden onderzoekers een paper The Moral Machine experiment om deze vraag te beantwoorden.
Om gegevens voor het onderzoek aan te maken, bijna 40 miljoen mensen uit 233 landen gebruikten een website om beslissingen vast te leggen over wie ze moesten redden en wie ze moesten laten sterven in hypothetische scenario's met een auto zonder bestuurder. Het is een versie van het klassieke zogenaamde "trolley-dilemma" - waarbij je de voorkeur moet geven aan mensen om prioriteit te geven in een noodgeval.
Enkele van de belangrijkste bevindingen zijn intuïtief:deelnemers redden liever mensen dan dieren, de jonge over de oude, en meer in plaats van minder. Andere voorkeuren zijn verontrustender:vrouwen boven mannen, leidinggevenden over daklozen, de pasvorm over de zwaarlijvige.
Het experiment is ongekend qua omvang en verfijning:we hebben nu een veel beter idee van hoe de voorkeuren van mensen in dergelijke dilemma's over de hele wereld variëren. De auteurs, verstandig, wees voorzichtig en gebruik de resultaten niet als een eenvoudige gids voor wat zelfrijdende auto's zouden moeten doen.
Maar dit is nog maar de eerste stap in wat een heftig debat moet worden. En in dat debat enquêtes zoals deze (hoe interessant ze ook zijn) kunnen maar een beperkte rol spelen.
Hoe goed is ons eerste oordeel?
Machines zijn veel sneller dan wij; ze raken niet in paniek. Op hun best, ze zouden onze weloverwogen wijsheid kunnen belichamen en deze zelfs in schrijnende omstandigheden efficiënt toepassen. Om dat te doen, echter, we moeten beginnen met goede gegevens.
Klikken op online quizzen is een geweldige manier om erachter te komen wat mensen denken voordat ze hun oordeel vellen. Maar het is duidelijk dat we niet toegeven aan alle vooroordelen. De auteurs hebben ras en nationaliteit weggelaten als keuzegronden, en terecht.
Een goed onderzoeksontwerp kan niet in een vacuüm worden gedaan. En morele voorkeuren mogen niet alleen maar smaken zijn. Om uit te werken wat moreel juist is om te doen (denk aan een moreel gewichtige keuze die je hebt gemaakt), je moet serieus nadenken.
We willen ethische kunstmatige intelligentie baseren op onze beste beoordelingen, niet noodzakelijk onze eerste.
De wereld is 'kans'
De studie maakte gebruik van dilemma's die twee bepaalde uitkomsten met zich meebrachten:of je raakt de kinderwagen definitief of je doodt de hond zeker.
Maar daadwerkelijke beslissingen brengen grote onzekerheid met zich mee:u weet misschien niet of de persoon die voor u ligt een kind of een kleine volwassene is, of het raken van hen hen zou doden of verwonden, of een snelle uitwijking zou kunnen werken.
Computers kunnen betere voorspellingen doen, maar de wereld is intrinsiek "chance". Dit is een groot probleem. Of-of-voorkeuren gaan in bepaalde gevallen alleen zo ver om ons te vertellen wat we moeten doen in risicovolle gevallen.
Stel dat een zelfrijdend voertuig moet kiezen tussen zichzelf laten crashen en zo zijn oudere passagier doden, of in plaats daarvan opzij gaan en een baby doden.
Het morele machine-experiment voorspelt dat mensen aan de kant van het kind staan. Maar het zegt niet hoeveel we liever zouden sparen dan de ander. Misschien is het bijna een toss-up, en we neigen er gewoon naar om het kind te sparen. Of misschien is het redden van het kind veel belangrijker dan het redden van de gepensioneerde.
De opvattingen hierover zullen zeer divers zijn, en dit onderzoek biedt ons geen houvast. Maar we kunnen niet weten hoe we moeten wegen, zeggen, een kans van 10% om het kind te doden tegen een kans van 50% om de gepensioneerde te doden, tenzij we weten hoeveel belangrijker het is om de een te sparen dan de ander te sparen.
Aangezien letterlijk elke keuze die door zelfrijdende auto's wordt gemaakt onder onzekerheid zal worden gemaakt, dit is een aanzienlijke kloof.
Wat onderzoeken ons niet kunnen vertellen
De motivatie voor het morele machine-experiment is begrijpelijk. De verantwoordelijkheid om de volgende generatie ethische kunstmatige intelligentie te coderen is een ontmoedigende.
Morele onenigheid lijkt schering en inslag. Een enquête lijkt een goede manier om meningen te trianguleren in een verhitte wereld.
Maar hoe we omgaan met morele onenigheid is niet alleen een wetenschappelijk probleem. Het is ook een morele. En, sinds de tijd van de oude Grieken, de oplossing voor dat morele probleem is niet het verzamelen van voorkeuren, maar democratische participatie.
De democratie verkeert ongetwijfeld in een crisis, althans in delen van de rijke wereld. Maar het blijft ons belangrijkste instrument om beslissingen te nemen bij onvermijdelijke onenigheid.
Democratische besluitvorming kan niet gereduceerd worden tot het afvinken van vakjes. Het gaat erom uw stem serieus te nemen, niet zomaar op een vakje op een website klikken. Het gaat om deelname, debat, en wederzijdse rechtvaardiging.
Enquêtes zoals deze kunnen ons niet vertellen waarom mensen de voorkeur geven aan de opties die ze doen. Het feit dat de beslissing van een zelfrijdende auto correleert met de opvattingen van anderen, op zichzelf, die keuze rechtvaardigen (stel je een menselijke bestuurder voor die haar acties bij een ongeval op dezelfde manier rechtvaardigt).
Wederzijdse rechtvaardiging is de kern van democratisch burgerschap. En het veronderstelt dat we ons niet alleen bezighouden met wat onze keuzes zijn, maar waarom we ze maken.
Samen beslissen
Studies als deze zijn intrinsiek interessant, en de auteurs van deze zijn bewonderenswaardig expliciet over wat het is, en wat het niet is ontworpen om te laten zien.
Om op deze fundamenten voort te bouwen, moeten we veel meer nadenken over hoe we onze morele verplichtingen onder onzekerheid kunnen afwegen.
En we moeten dit doen als onderdeel van een inclusief democratisch proces waarin we niet alleen de voorkeuren van mensen verzamelen, maar neem de taak om te beslissen serieus, samen, onze toekomst met kunstmatige intelligentie.
Dit artikel is opnieuw gepubliceerd vanuit The Conversation onder een Creative Commons-licentie. Lees het originele artikel.
Wetenschap © https://nl.scienceaq.com