Wetenschap
Krediet:Franck V. op Unsplash
Naarmate meer robots hun weg vinden naar de samenleving, het is belangrijk om na te denken over de ethische en morele implicaties van het uitvoeren van taken die een aanzienlijke impact kunnen hebben op het leven van mensen. Als robots en machines op grote schaal worden gebruikt in situaties waar ze mensenlevens ernstig kunnen beïnvloeden, bijvoorbeeld door auto te rijden of ouderen dagelijks de medicijnen te geven die ze nodig hebben, ontwikkelaars moeten eerst de bijbehorende implicaties overwegen.
Met dit in gedachten, Michaël Nagenborg, een onderzoeker aan de Universiteit Twente in Nederland, heeft onlangs een onderzoek gedaan naar wat er kan gebeuren als een robot of machine een vreselijke fout maakt die nadelige gevolgen heeft voor zijn gebruikers. Zijn papier, gepubliceerd in Springer Link's Technologie, Antropologie, en afmetingen van verantwoordelijkheid logboek, onderzoekt specifiek de vraag of mensen een robot kunnen vergeven als hij iets verkeerd doet, vanuit een filosofisch standpunt.
"De academische discussie over ethiek is vaak gericht op het formuleren van morele normen, terwijl er weinig aandacht wordt besteed aan wat er gebeurt als mensen niet aan deze normen voldoen, "Zei Nagenborg. "Iemand kunnen vergeven, echter, lijkt een cruciaal aspect van het menselijk bestaan te zijn en is nauw verbonden met de manier waarop we elkaar verantwoordelijk houden voor ons handelen. Ik vroeg me af welke rol vergeving zou kunnen spelen als we robots als sociale entiteiten beschouwen."
In zijn recente studie, Nagenborg onderzoekt een reeks complexe ethische vragen met betrekking tot schuld en verantwoordelijkheid in robotica, zoals 'hoe kunnen menselijke gebruikers omgaan met het feit dat een robot een cruciale fout heeft gemaakt' en 'kan een robot volledig verantwoordelijk worden gehouden voor zijn acties'? In plaats van te vragen of een robot gestraft kan of moet worden voor zijn fouten, echter, hij richt zich op de vraag of mensen robots zouden kunnen vergeven, zelfs in gevallen waarin hun acties tot onomkeerbare en ernstige schade hebben geleid.
"Laten we een dramatisch voorbeeld nemen:een zelfrijdende auto doodt iemand van wie je houdt, ' legde Nagenborg uit. 'Zou je het zelfrijdende voertuig willen en kunnen vergeven? Ik kon me voorstellen dat ik een menselijke chauffeur zou vergeven, maar het lijkt een grotere uitdaging om een machine te vergeven. Ik wilde onderzoeken wat deze uitdaging onthult over onze relatie met robots in de context van het academische debat over hun morele status."
Veel studies over filosofie en ethiek benadrukken vergeving als een cruciaal aspect van interacties tussen mensen, omdat het kan bepalen hoe ze reageren op en leren omgaan met de fouten van anderen. In zijn krant, Nagenborg gaat ervan uit dat vergeving ook een sleutelrol zal spelen in een samenleving waar mensen en robots naast elkaar bestaan, vooral als deze worden toegewezen aan taken die het leven van anderen kunnen beïnvloeden.
"Aan de ene kant, de moeilijkheden om je voor te stellen wat het zou kunnen betekenen om een robot te vergeven, laten zien dat we heel voorzichtig moeten zijn bij het verantwoordelijk houden van een robot voor zijn acties, " zei Nagenborg. "Aan de andere kant, als we op een eerlijke en serieuze manier machines kunnen gaan vergeven, we moeten ons bewust zijn van de fundamentele verschuiving in hoe we robots waarnemen."
Terwijl Nagenborgs paper louter gebaseerd is op speculaties en filosofische ideeën, het opent een venster op een belangrijk aspect van mens-robot-interacties dat zelden eerder is onderzocht. Zijn werk zou anderen binnen de ethische gemeenschap kunnen aanmoedigen om het begrip vergeving in robotica en AI-ontwikkeling te overwegen, vooral als robots mensen op een grotere verscheidenheid aan manieren gaan helpen. Bovenal, Nagenborg hoopt robotica-onderzoekers ook te herinneren aan de complexiteit van sociale interacties tussen mensen en hoe deze complexiteit ooit ook zou kunnen worden weerspiegeld in mens-robotinteracties.
"Twee van mijn huidige onderzoeksprojecten gaan over het gebruik van big data en AI in het mondiale zuiden voor het in kaart brengen van 'sloppenwijken' en humanitaire reacties, " Nagenborg toegevoegd. "Een belangrijk punt hier is de vraag hoe we de beslissing die op basis van dergelijke technologische systemen is genomen, kunnen uitleggen en rechtvaardigen aan de mensen die in kaart worden gebracht."
© 2020 Wetenschap X Netwerk
Wetenschap © https://nl.scienceaq.com