science >> Wetenschap >  >> Elektronica

Het probleem van zelfrijdende trolleys:hoe zullen toekomstige AI-systemen de meest ethische keuzes maken voor ons allemaal?

Tegoed:Shutterstock

Kunstmatige intelligentie (AI) neemt al beslissingen op het gebied van zaken, gezondheidszorg en productie. Maar AI-algoritmen krijgen over het algemeen nog steeds hulp van mensen die controles toepassen en de laatste hand leggen.

Wat zou er gebeuren als AI-systemen onafhankelijke beslissingen zouden moeten nemen, en beslissingen die voor mensen leven of dood kunnen betekenen?

De popcultuur heeft lang ons algemene wantrouwen jegens AI geportretteerd. In de sci-fi film "I, Robot" uit 2004 staat detective Del Spooner (gespeeld door Will Smith) achterdochtig tegenover robots nadat hij door een van hen werd gered van een auto-ongeluk, terwijl een 12-jarig meisje werd achtergelaten om te verdrinken. Hij zegt:"Ik was de logische keuze. Het berekende dat ik een overlevingskans van 45% had. Sarah had maar 11% kans. Dat was iemands baby - 11% is meer dan genoeg. Een mens zou dat geweten hebben ."

In tegenstelling tot mensen hebben robots geen moreel geweten en volgen ze de "ethiek" die in hen is geprogrammeerd. Tegelijkertijd is de menselijke moraliteit zeer variabel. Het "juiste" wat je in elke situatie moet doen, hangt af van wie je het vraagt.

Om ervoor te zorgen dat machines ons volledig kunnen helpen, moeten we ervoor zorgen dat ze zich ethisch gedragen. Dus de vraag wordt:hoe beïnvloedt de ethiek van AI-ontwikkelaars en ingenieurs de beslissingen die door AI worden genomen?

De zelfrijdende toekomst

Stel je een toekomst voor met zelfrijdende auto's die volledig autonoom zijn. Als alles werkt zoals bedoeld, is het woon-werkverkeer in de ochtend een gelegenheid om je voor te bereiden op de vergaderingen van die dag, het laatste nieuws bij te houden of achterover te leunen en te ontspannen.

Maar wat als het mis gaat? De auto nadert een verkeerslicht, maar plotseling vallen de remmen uit en moet de computer in een fractie van een seconde een beslissing nemen. Het kan uitwijken naar een nabijgelegen paal en de passagier doden, of doorgaan en de voetganger doden.

De computer die de auto bestuurt, heeft alleen toegang tot beperkte informatie die is verzameld via autosensoren en zal op basis hiervan een beslissing moeten nemen. Hoe dramatisch dit ook mag lijken, we zijn nog maar een paar jaar verwijderd van potentieel voor dergelijke dilemma's.

Zelfrijdende auto's zullen over het algemeen veiliger rijden bieden, maar ongevallen zullen onvermijdelijk zijn - vooral in de nabije toekomst, wanneer deze auto's de wegen zullen delen met menselijke bestuurders en andere weggebruikers.

Tesla produceert nog geen volledig autonome auto's, hoewel het dat wel van plan is. In botsingssituaties schakelen Tesla-auto's het Automatic Emergency Braking-systeem (AEB) niet automatisch in of uit als een menselijke bestuurder de controle heeft.

Met andere woorden, het handelen van de bestuurder wordt niet verstoord, zelfs niet als hij zelf de aanrijding veroorzaakt. Als de auto een mogelijke aanrijding detecteert, stuurt hij daarentegen waarschuwingen naar de bestuurder om actie te ondernemen.

In de "autopilot"-modus moet de auto echter automatisch remmen voor voetgangers. Sommigen beweren dat als de auto een aanrijding kan voorkomen, er een morele verplichting voor hem is om de acties van de bestuurder in elk scenario te negeren. Maar zouden we een autonome auto willen om deze beslissing te nemen?

Wat is een leven waard?

Wat als de computer van een auto de relatieve "waarde" van de passagier in zijn auto en van de voetganger zou kunnen evalueren? Als het besluit deze waarde in overweging zou nemen, zou het technisch gezien gewoon een kosten-batenanalyse zijn.

Dit klinkt misschien alarmerend, maar er zijn al technologieën in ontwikkeling die dit mogelijk maken. Zo heeft het onlangs omgedoopt tot Meta (voorheen Facebook) een sterk geëvolueerde gezichtsherkenning die individuen in een scène gemakkelijk kan identificeren.

Als deze gegevens zouden worden opgenomen in het AI-systeem van een autonoom voertuig, zou het algoritme een dollarwaarde op elk leven kunnen plaatsen. Deze mogelijkheid wordt weergegeven in een uitgebreide studie uit 2018 uitgevoerd door experts van het Massachusetts Institute of Technology en collega's.

Via het Moral Machine-experiment stelden onderzoekers verschillende scenario's voor zelfrijdende auto's voor die deelnemers dwongen te beslissen of ze een dakloze voetganger of een uitvoerende voetganger wilden doden.

Uit de resultaten bleek dat de keuzes van de deelnemers afhing van het niveau van economische ongelijkheid in hun land, waarbij meer economische ongelijkheid betekende dat ze meer geneigd waren de dakloze man op te offeren.

Hoewel niet helemaal zo geëvolueerd, wordt dergelijke gegevensaggregatie al gebruikt met het sociale kredietsysteem van China, dat bepaalt welke sociale rechten mensen hebben.

De gezondheidszorg is een ander gebied waar we AI beslissingen zullen zien nemen die mensen kunnen redden of schaden. Experts ontwikkelen steeds vaker AI om afwijkingen in medische beeldvorming op te sporen en om artsen te helpen bij het prioriteren van medische zorg.

Voorlopig hebben artsen het laatste woord, maar naarmate deze technologieën steeds geavanceerder worden, wat gebeurt er dan als een arts en een AI-algoritme niet dezelfde diagnose stellen?

Een ander voorbeeld is een geautomatiseerd medicijnherinneringssysteem. Hoe moet het systeem reageren als een patiënt weigert zijn medicatie in te nemen? En hoe beïnvloedt dat de autonomie van de patiënt en de algehele verantwoording van het systeem?

AI-aangedreven drones en wapens zijn ook ethisch zorgwekkend, omdat ze de beslissing kunnen nemen om te doden. Er zijn tegenstrijdige opvattingen over de vraag of dergelijke technologieën volledig moeten worden verboden of gereguleerd. Zo kan het gebruik van autonome drones beperkt blijven tot surveillance.

Sommigen hebben opgeroepen om militaire robots met ethiek te programmeren. Maar dit roept vragen op over de aansprakelijkheid van de programmeur in het geval dat een drone per ongeluk burgers doodt.

Filosofische dilemma's

Er zijn veel filosofische debatten geweest over de ethische beslissingen die AI zal moeten nemen. Het klassieke voorbeeld hiervan is het trolleyprobleem.

Mensen hebben vaak moeite om beslissingen te nemen die een levensveranderende uitkomst kunnen hebben. Bij het evalueren van hoe we op dergelijke situaties reageren, kunnen de door een onderzoek gerapporteerde keuzes variëren, afhankelijk van een reeks factoren, waaronder de leeftijd, het geslacht en de cultuur van de respondent.

Als het gaat om AI-systemen, zijn de trainingsprocessen voor algoritmen van cruciaal belang voor hoe ze in de echte wereld zullen werken. Een systeem dat in het ene land is ontwikkeld, kan worden beïnvloed door de opvattingen, politiek, ethiek en moraal van dat land, waardoor het ongeschikt is voor gebruik in een andere plaats en tijd.

Als het systeem vliegtuigen bestuurde of een raket leidde, zou je een hoge mate van vertrouwen willen hebben dat het is getraind met gegevens die representatief zijn voor de omgeving waarin het wordt gebruikt.

Voorbeelden van fouten en vooringenomenheid bij de implementatie van technologie zijn onder meer racistische zeepdispensers en ongepaste automatische afbeeldingslabels.

AI is niet "goed" of "kwaad". De effecten die het op mensen heeft, zijn afhankelijk van de ethiek van de ontwikkelaars. Dus om er het beste van te maken, moeten we overeenstemming bereiken over wat we als 'ethisch' beschouwen.

Hoewel particuliere bedrijven, openbare organisaties en onderzoeksinstellingen hun eigen richtlijnen voor ethische AI ​​hebben, hebben de Verenigde Naties aanbevolen om wat zij noemen "een alomvattend instrument voor het stellen van wereldwijde normen" te ontwikkelen om een ​​wereldwijd ethisch AI-kader te bieden en ervoor te zorgen dat de mensenrechten worden beschermd.