Wetenschap
Het Amerikaanse leger test al een Modular Advanced Armed Robotic System. Krediet:Lance Cpl. Julien Rodarte, US Marine Corps
Bij het opstellen van een verdrag over het oorlogsrecht aan het einde van de 19e eeuw, diplomaten konden de toekomst van wapenontwikkeling niet voorzien. Maar ze hebben wel een wettelijke en morele standaard aangenomen om nieuwe technologie te beoordelen die niet onder de bestaande verdragstaal valt.
Deze standaard, bekend als de Martens-clausule, heeft generaties van internationaal humanitair recht overleefd en hernieuwde relevantie gekregen in een wereld waar autonome wapens op het punt staan hun eigen beslissingen te nemen over wie ze zullen schieten en wanneer. De Martens-clausule roept landen op geen wapens te gebruiken die afwijken "van de principes van menselijkheid en van de dictaten van het publieke geweten".
Ik was de hoofdauteur van een nieuw rapport van Human Rights Watch en de Harvard Law School International Human Rights Clinic waarin wordt uitgelegd waarom volledig autonome wapens indruisen tegen de principes van menselijkheid en de eisen van het publieke geweten. We vonden dat om te voldoen aan de Martens-clausule, landen moeten een verdrag aannemen dat de ontwikkeling verbiedt, productie en gebruik van deze wapens.
Vertegenwoordigers van meer dan 70 landen zullen van 27 tot 31 augustus bijeenkomen bij de Verenigde Naties in Genève om te bespreken hoe de problemen kunnen worden aangepakt met wat zij dodelijke autonome wapensystemen noemen. Deze landen, die partij zijn bij het Verdrag inzake conventionele wapens, hebben de kwestie vijf jaar besproken. Mijn co-auteurs en ik geloven dat het tijd is dat ze actie ondernemen en overeenkomen om volgend jaar over een verbod te onderhandelen.
Regels maken voor het onkenbare
De Martens-clausule biedt een basis van bescherming voor burgers en soldaten bij gebrek aan specifiek verdragsrecht. De clausule bevat ook een norm voor het evalueren van nieuwe situaties en technologieën die voorheen niet werden voorzien.
Volledig autonome wapens, soms "moordenaarsrobots" genoemd, " zou doelen selecteren en aanvallen zonder zinvolle menselijke controle. Ze zouden een gevaarlijke stap zijn die verder gaat dan de huidige bewapende drones, omdat er geen mens in de lus zou zijn om te bepalen wanneer te schieten en op welk doelwit. Hoewel er nog geen volledig autonome wapens bestaan, China, Israël, Rusland, Zuid-Korea, het Verenigd Koninkrijk en de Verenigde Staten werken allemaal aan de ontwikkeling ervan. Ze beweren dat de technologie informatie sneller zou verwerken en soldaten van het slagveld zou houden.
De mogelijkheid dat volledig autonome wapens binnenkort werkelijkheid kunnen worden, maakt het voor die en andere landen noodzakelijk om de Martens-clausule toe te passen en te beoordelen of de technologie de fundamentele menselijkheid en het publieke geweten zou beledigen. Uit onze analyse blijkt dat volledig autonome wapens de test op beide punten niet doorstaan.
Principes van de mensheid
De geschiedenis van de Martens-clausule laat zien dat het een grondbeginsel is van het internationaal humanitair recht. Afkomstig uit het Verdrag van Den Haag van 1899, versies ervan komen voor in alle vier de Conventies van Genève en Aanvullend Protocol I. Het wordt aangehaald in tal van ontwapeningsverdragen. 1995, bezorgdheid onder de Martens-clausule motiveerde landen om een preventief verbod op verblindende lasers in te voeren.
De beginselen van menselijkheid vereisen een humane behandeling van anderen en respect voor het menselijk leven en de waardigheid. Volledig autonome wapens zouden niet aan deze eisen kunnen voldoen omdat ze geen mededogen zouden kunnen voelen, een emotie die mensen inspireert om lijden en dood te minimaliseren. De wapens zouden ook niet het juridische en ethische oordeel hebben dat nodig is om ervoor te zorgen dat ze burgers beschermen in complexe en onvoorspelbare conflictsituaties.
Onder menselijk toezicht – voorlopig. Krediet:Pfc. Rita Daniël, US Marine Corps
In aanvulling, als levenloze machines, deze wapens konden de waarde van een individueel leven of de betekenis van het verlies ervan niet echt begrijpen. Hun algoritmen zouden mensenlevens vertalen in numerieke waarden. Door dodelijke beslissingen te nemen op basis van dergelijke algoritmen, ze zouden hun menselijke doelen – of het nu burgers of soldaten waren – reduceren tot objecten, hun menselijke waardigheid ondermijnen.
Dictaten van het publieke geweten
De groeiende oppositie tegen volledig autonome wapens laat zien dat ze ook in strijd zijn met de eisen van het publieke geweten. regeringen, deskundigen en het grote publiek hebben allemaal bezwaar gemaakt, vaak op morele gronden, de mogelijkheid om de menselijke controle over het gebruik van geweld te verliezen.
Daten, 26 landen hebben uitdrukkelijk een verbod gesteund, inclusief China. De meeste landen die tijdens de VN-bijeenkomsten over conventionele wapens hebben gesproken, hebben opgeroepen tot het handhaven van een vorm van zinvolle menselijke controle over het gebruik van geweld. Het eisen van een dergelijke controle is in feite hetzelfde als het verbieden van wapens die werken zonder een persoon die beslist wanneer te doden.
Duizenden wetenschappers en experts op het gebied van kunstmatige intelligentie hebben een verbod onderschreven en actie geëist van de Verenigde Naties. In juli 2018, ze hebben een toezegging gedaan om niet te helpen bij de ontwikkeling of het gebruik van volledig autonome wapens. Grote bedrijven hebben ook opgeroepen tot het verbod.
Meer dan 160 geloofsleiders en meer dan 20 winnaars van de Nobelprijs voor de Vrede hebben de technologie eveneens veroordeeld en een verbod gesteund. Verschillende internationale en nationale opiniepeilingen hebben uitgewezen dat een meerderheid van de mensen die reageerden tegen de ontwikkeling en het gebruik van volledig autonome wapens was.
De campagne om moordende robots te stoppen, een coalitie van 75 niet-gouvernementele organisaties uit 42 landen, heeft geleid tot oppositie van niet-gouvernementele groepen. Human Rights Watch, waarvoor ik werk, medeoprichter en coördinator van de campagne.
Andere problemen met killer robots
Volledig autonome wapens zouden meer bedreigen dan de mensheid en het publieke geweten. They would likely violate other key rules of international law. Their use would create a gap in accountability because no one could be held individually liable for the unforeseeable actions of an autonomous robot.
Verder, the existence of killer robots would spark widespread proliferation and an arms race – dangerous developments made worse by the fact that fully autonomous weapons would be vulnerable to hacking or technological failures.
Bolstering the case for a ban, our Martens Clause assessment highlights in particular how delegating life-and-death decisions to machines would violate core human values. Our report finds that there should always be meaningful human control over the use of force. We urge countries at this U.N. meeting to work toward a new treaty that would save people from lethal attacks made without human judgment or compassion. A clear ban on fully autonomous weapons would reinforce the longstanding moral and legal foundations of international humanitarian law articulated in the Martens Clause.
Dit artikel is oorspronkelijk gepubliceerd op The Conversation. Lees het originele artikel.
Wetenschap © https://nl.scienceaq.com