Wetenschap
Krediet:Oleg Yarko/Shutterstock
Er ontstaat een scheidslijn in het debat over zogenaamde killer robots. Veel landen willen nieuwe internationale wetgeving zien over autonome wapensystemen die mensen kunnen aanvallen en doden zonder menselijke tussenkomst. Maar de landen die al dergelijke wapens ontwikkelen, proberen in plaats daarvan hun vermeende voordelen te benadrukken.
Ik was getuige van deze groeiende kloof tijdens een recente VN-bijeenkomst van meer dan 70 landen in Genève, waar voorstanders van autonome wapens, inclusief de VS, Australië en Zuid-Korea, waren luider dan ooit. Op de vergadering, de VS beweerden dat dergelijke wapens het zelfs gemakkelijker zouden kunnen maken om het internationaal humanitair recht te volgen door militaire actie nauwkeuriger te maken.
Toch is het zeer speculatief om te zeggen dat 'moordenaarsrobots' ooit in staat zullen zijn om het humanitair recht te volgen. En terwijl politici hierover blijven discussiëren, de verbreiding van autonomie en kunstmatige intelligentie in bestaande militaire technologie stelt al effectief ongewenste normen voor haar rol bij het gebruik van geweld.
Een reeks open brieven van vooraanstaande onderzoekers die zich uitspreken tegen het bewapenen van kunstmatige intelligentie hebben ertoe bijgedragen dat het debat over autonome militaire systemen onder de publieke aandacht is gebracht. Het probleem is dat het debat wordt geframed alsof deze technologie iets uit de toekomst is. In feite, de vragen die het oproept, worden in feite al aangepakt door bestaande systemen.
De meeste luchtverdedigingssystemen hebben al een aanzienlijke autonomie in het targetingproces, en militaire vliegtuigen hebben sterk geautomatiseerde functies. Dit betekent dat 'robots' al betrokken zijn bij het identificeren en aanvallen van doelen.
In de tussentijd, een andere belangrijke vraag die door de huidige technologie wordt opgeworpen, ontbreekt in de lopende discussie. Op afstand bediende drones worden momenteel door legers van verschillende landen gebruikt om bommen op doelen te laten vallen. Maar uit incidenten in Afghanistan en elders weten we dat dronebeelden niet voldoende zijn om een duidelijk onderscheid te maken tussen burgers en strijders. We weten ook dat de huidige AI-technologie aanzienlijke vooroordelen kan bevatten die de besluitvorming beïnvloeden, vaak met schadelijke gevolgen.
Mensen drukken nog steeds op de trekker, maar voor hoe lang? Krediet:Burlingham/Shutterstock
Aangezien toekomstige volledig autonome vliegtuigen waarschijnlijk op dezelfde manier als drones zullen worden gebruikt, ze zullen waarschijnlijk de praktijken van drones volgen. Maar staten die bestaande autonome technologieën gebruiken, sluiten ze uit van het bredere debat door ze "semi-autonome" of zogenaamde "legacy-systemen" te noemen. Opnieuw, hierdoor lijkt de kwestie van "moordenaarsrobots" futuristischer dan het in werkelijkheid is. Dit weerhoudt de internationale gemeenschap er ook van om nader te onderzoeken of deze systemen in de grond van het humanitair recht passend zijn.
Verschillende belangrijke principes van het internationaal humanitair recht vereisen opzettelijke menselijke oordelen waartoe machines niet in staat zijn. Bijvoorbeeld, de wettelijke definitie van wie een burger is en wie een strijder is niet geschreven op een manier die in AI kan worden geprogrammeerd, en machines missen het situationeel bewustzijn en het vermogen om dingen af te leiden die nodig zijn om deze beslissing te nemen.
Onzichtbare besluitvorming
dieper, hoe meer doelen worden gekozen en mogelijk aangevallen door machines, hoe minder we weten over hoe die beslissingen worden genomen. Drones zijn al sterk afhankelijk van intelligentiegegevens die worden verwerkt door "black box" -algoritmen die erg moeilijk te begrijpen zijn om hun voorgestelde doelen te kiezen. Dit maakt het moeilijker voor de menselijke operators die daadwerkelijk op de trigger drukken om doelvoorstellen in twijfel te trekken.
Terwijl de VN over deze kwestie blijft debatteren, het is vermeldenswaard dat de meeste landen die voorstander zijn van een verbod op autonome wapens ontwikkelingslanden zijn, die doorgaans minder geneigd zijn om internationale ontwapeningsbesprekingen bij te wonen. Dus het feit dat ze bereid zijn zich krachtig uit te spreken tegen autonome wapens, maakt hun optreden des te belangrijker. Hun geschiedenis van het ervaren van interventies en invasies van rijkere, machtigere landen (zoals sommige voorstanders van autonome wapens) herinnert ons er ook aan dat zij het meeste risico lopen door deze technologie.
Gezien wat we weten over bestaande autonome systemen, we zouden ons grote zorgen moeten maken dat "moordenaarsrobots" schendingen van het humanitair recht meer, niet minder, aannemelijk. Deze dreiging kan alleen worden voorkomen door te onderhandelen over nieuw internationaal recht dat het gebruik ervan aan banden legt.
Dit artikel is opnieuw gepubliceerd vanuit The Conversation onder een Creative Commons-licentie. Lees het originele artikel.
Wetenschap © https://nl.scienceaq.com