Wetenschap
Als je een fan bent van de filmfranchise "Terminator", je hebt al een angstaanjagende fictieve glimp gezien van een nachtmerrieachtig dystopisch slagveld waarin machines die zijn uitgerust met kunstmatige intelligentie de ongebreidelde macht hebben om mensen te doden.
Hoewel volledig autonome wapens - de technische term voor moordende robots - nog niet helemaal een realiteit zijn, de snelle opmars van robotica en kunstmatige intelligentie roept het schrikbeeld op van legers die binnenkort tanks en vliegtuigen zullen hebben die kunnen aanvallen zonder een mens aan het stuur.
Volgens een rapport uit 2017 van het Center for a New American Security, meer dan 30 landen hebben of ontwikkelen bewapende drone-vliegtuigen. Het Russische persbureau TASS rapporteerde in 2017 ook over de ontwikkeling door dat land van een geautomatiseerde "gevechtsmodule" - een robottank - die kunstmatige intelligentie kan gebruiken om doelen te identificeren en beslissingen te nemen. En hoewel het huidige Amerikaanse beleid volledig autonome wapens uitsluit, het Pentagon ontwikkelt lucht- en grondrobots die zouden werken in zwermen van 250 of meer, het uitvoeren van bewakings- en andere functies om menselijke troepen te ondersteunen. En volgens de South China Morning Post, China werkt aan de ontwikkeling van onderzeeërs die zijn uitgerust met kunstmatige intelligentie die commandanten zouden helpen bij het nemen van tactische beslissingen.
De snelle haast om oorlogsvoering te automatiseren verontrust wetenschappers, en over de hele wereld, er is een groeiende beweging om de ontwikkeling van autonome wapens te stoppen voordat de technologie de kans krijgt om zich te verspreiden. Bijna 4, 000 onderzoekers en wetenschappers op het gebied van kunstmatige intelligentie en robotica op andere gebieden - waaronder SpaceX en Tesla-oprichter Elon Musk, Apple-medeoprichter Steve Wozniak en wijlen astrofysicus Stephen Hawking hebben een open brief aan de wereld ondertekend. aandringen op een verbod op "offensieve autonome wapens die buiten de menselijke controle vallen". Organisaties zoals de Campaign to Stop Killer Robots zijn steeds luider geworden over de noodzaak van beperkingen op dergelijke technologie.
"We zijn nog maar een paar jaar verder, "Toby Walsh, de Scientia hoogleraar kunstmatige intelligentie aan de Australische Universiteit van New South Wales, waarschuwt in een e-mail. "Prototypes bestaan op elk gebied van de strijd - in de lucht, op de grond, op de zee en onder de zee."
Walsh raakte enkele jaren geleden bij de inspanning betrokken, toen het hem duidelijk werd dat "een wapenwedloop om dergelijke wapens te ontwikkelen begon, en we hadden de kans om de dystopische toekomst te voorkomen die zo vaak door Hollywood wordt geportretteerd."
Walsh en andere AI-onderzoekers gebruikten onlangs hun bekendheid in het veld om druk uit te oefenen. Na KAIST (Korea Advanced Institute of Science and Technology), een Zuid-Koreaanse onderzoeksuniversiteit, lanceerde een nieuw centrum gewijd aan de convergentie van AI en nationale defensie, ze stuurden een open brief aan KAIST-president Sung-Chul Shin, dreigde met een boycot, tenzij hij de verzekering gaf dat het centrum geen volledig autonome wapens zou ontwikkelen zonder zinvolle menselijke controle. (Sung gaf vervolgens een verklaring af waarin hij bevestigde dat de universiteit dergelijke wapens niet zou ontwikkelen, volgens Times Higher Education.)
Ook de anti-killer robotbeweging houdt de ontwikkelingen in Genève nauwlettend in de gaten, waar vertegenwoordigers van verschillende landen in april 2018 bij elkaar kwamen voor een VN-conferentie over wat te doen met autonome wapens.
Richard Moyes, de directeur van artikel 36, een in het Verenigd Koninkrijk gevestigde wapenbeheersingsorganisatie, zegt in een e-mail dat autonome wapens het wettelijke kader voor oorlogvoering kunnen uithollen, die afhankelijk is van mensen die beslissingen nemen over de vraag of het gebruik van geweld in een bepaalde situatie legaal is. "Als machines een brede vergunning krijgen om aanvallen uit te voeren, zullen die menselijke juridische beoordelingen niet langer gebaseerd zijn op een echt begrip van de omstandigheden ter plaatse, " schrijft Moyes, een 2017 ontvanger van de Nobelprijs voor de Vrede voor zijn werk aan de vermindering van kernwapens. "Dit opent de weg voor een echte ontmenselijking van conflicten."
De VS zouden vermoedelijk een moordend robotverbod steunen. In 2012, de regering-Obama heeft een richtlijn uitgevaardigd - die het Witte Huis van Trump blijkbaar heeft gekozen om door te gaan - waarin wordt geëist dat autonome wapentechnologie moet worden ontworpen "zodat commandanten en operators een passend menselijk oordeel kunnen vellen over het gebruik van geweld." De richtlijn vereist ook waarborgen ter bescherming tegen het slecht functioneren van autonome wapens en het zelfstandig uitvoeren van aanvallen. Steven Walker, directeur van het Defense Advanced Research Projects Agency (DARPA), zei in maart dat hij betwijfelde of de VS ooit zouden toestaan dat machines beslissingen nemen over het gebruik van dodelijk geweld. volgens De Heuvel.
In een e-mail, DARPA-woordvoerder Jared Adams zegt dat het onderzoek van het bureau zich in plaats daarvan richt op "het onderzoeken van manieren om ervoor te zorgen dat technologie het vermogen van menselijke operators verbetert om op kritieke momenten snelle beslissingen te nemen in plaats van dat vermogen uit te hollen." Er is een zorg dat de afhankelijkheid van menselijke operators van automatisering hun situationeel bewustzijn zou kunnen verminderen wanneer ze er een beroep op moeten doen - een probleem dat volgens Adams wordt geïllustreerd door de crash van Air France-vlucht 447 in 2009. "Om deze reden, Het onderzoek van DARPA met betrekking tot autonomie is gericht op het vinden van een optimale balans tussen verschillende bedrijfsmodi met de nadruk op het bieden van maximale beslissingsondersteuning aan oorlogsjagers, " hij zegt.
Maar het internationaal verbieden van killer-robots kan moeilijk zijn. Bonnie Docherty, senior wapenonderzoeker bij Human Rights Watch en associate director van gewapende conflicten en civiele bescherming aan de International Human Rights Clinic van de Harvard Law School, zegt in een e-mail dat hoewel de meeste landen op de VN-conferentie zich zorgen maken over autonome wapens, er is nog geen consensus voor een juridisch bindend internationaal verbod.
Zou een verbod op killer-robots werken? Een al lang bestaand internationaal verdrag dat chemische wapens verbiedt, bijvoorbeeld, blijkbaar is het gebruik van dergelijke wapens in de Syrische burgeroorlog niet gestopt.
Hoe dan ook, Docherty voerde aan dat een verbod op chemische wapens, antipersoonsmijnen en clustermunitie hebben nog steeds levens gered. "Dergelijke wetten binden landen die zich bij hen aansluiten, en door problematische wapens te stigmatiseren, kunnen ze zelfs landen beïnvloeden die geen partij zijn. Elke wet - zelfs tegen een algemeen aanvaarde misdaad zoals moord - kan worden geschonden door een malafide acteur, maar dat betekent niet dat dergelijke wetten niet moeten worden aangenomen. De wet heeft nog steeds een aanzienlijke invloed op het gedrag en er moet een nieuw internationaal verdrag worden aangenomen om volledig autonome wapens te voorkomen, " zij schrijft.
Dat is nu interessantDe video "Slaughterbots", gemaakt met de hulp van de Universiteit van Californië, Berkeley professor in computerwetenschappen en techniek Stuart Russell, toont een gruwelijk scenario waarin kleine drones geselecteerde individuen opsporen en vermoorden, die via sociale media worden geïdentificeerd. Het idee was om te dramatiseren hoe de technologie kan worden gebruikt als een massavernietigingswapen, Russell verklaarde in een interview met ABC7 News.
Wetenschap © https://nl.scienceaq.com