Wetenschap
Algoritmen zullen binnenkort kunnen beslissen op wie ze zich moeten richten. Krediet:Amerikaanse luchtmacht
Het Amerikaanse leger heeft onlangs aangekondigd dat het de eerste drones ontwikkelt die voertuigen en mensen kunnen spotten en aanvallen met behulp van kunstmatige intelligentie (AI). Dit is een grote stap voorwaarts. Terwijl de huidige militaire drones nog steeds door mensen worden bestuurd, deze nieuwe technologie zal beslissen wie te doden met bijna geen menselijke tussenkomst.
Eenmaal voltooid, deze drones zullen de ultieme militarisering van AI vertegenwoordigen en leiden tot enorme juridische en ethische implicaties voor de bredere samenleving. Er is een kans dat de oorlogvoering verschuift van vechten naar uitroeiing, daarbij elke schijn van menselijkheid verliezen. Tegelijkertijd, het zou de oorlogssfeer kunnen verbreden, zodat de bedrijven, ingenieurs en wetenschappers die AI bouwen, worden geldige militaire doelen.
Bestaande dodelijke militaire drones zoals de MQ-9 Reaper worden zorgvuldig gecontroleerd en bestuurd via satelliet. Als een piloot een bom laat vallen of een raket afvuurt, een menselijke sensoroperator leidt het actief naar het gekozen doel met behulp van een laser.
uiteindelijk, de bemanning heeft de laatste ethische, wettelijke en operationele verantwoordelijkheid voor het doden van aangewezen menselijke doelen. Zoals een Reaper-operator zegt:"Ik ben er sterk van overtuigd dat ik een opstandeling zou toestaan, hoe belangrijk een doelwit ook is, om weg te komen in plaats van een riskant schot te nemen dat burgers zou kunnen doden."
Zelfs met deze drone-moorden, menselijke emoties, oordelen en ethiek hebben altijd centraal gestaan in de oorlog. Het bestaan van mentaal trauma en posttraumatische stressstoornis (PTSS) onder drone-operators toont de psychologische impact van doden op afstand.
Een MQ-9 Reaper-piloot. Krediet:Amerikaanse luchtmacht
En dit wijst eigenlijk op een mogelijk militair en ethisch argument van Ronald Arkin, ter ondersteuning van autonoom dodende drones. Misschien als deze drones de bommen laten vallen, psychische problemen bij bemanningsleden kunnen worden voorkomen. De zwakte van dit argument is dat je niet verantwoordelijk hoeft te zijn voor het doden om erdoor getraumatiseerd te worden. Inlichtingenspecialisten en ander militair personeel analyseren regelmatig grafische beelden van drone-aanvallen. Uit onderzoek blijkt dat het mogelijk is om psychische schade te lijden door veelvuldig naar beelden van extreem geweld te kijken.
Toen ik meer dan 100 bemanningsleden van Reaper interviewde voor een aankomend boek, iedereen die ik sprak die dodelijke drone-aanvallen uitvoerde, geloofde dat, uiteindelijk, het zou een mens moeten zijn die de laatste trekker overhaalt. Schakel de mens uit en je schakelt ook de menselijkheid uit van de beslissing om te doden.
ernstige gevolgen
Het vooruitzicht van volledig autonome drones zou de complexe processen en beslissingen achter militaire moorden radicaal veranderen. Maar juridische en ethische verantwoordelijkheid verdwijnt op de een of andere manier niet zomaar als je menselijk toezicht wegneemt. In plaats daarvan, verantwoordelijkheid zal steeds meer bij anderen komen te liggen, inclusief kunstmatige intelligentie wetenschappers.
De juridische implicaties van deze ontwikkelingen worden nu al duidelijk. Volgens het huidige internationaal humanitair recht, "dual-use" faciliteiten – die welke producten ontwikkelen voor zowel civiele als militaire toepassingen – kunnen onder de juiste omstandigheden worden aangevallen. Bijvoorbeeld, in de Kosovo-oorlog van 1999, de olieraffinaderij van Pancevo werd aangevallen omdat deze zowel Joegoslavische tanks van brandstof kon voorzien als burgerauto's van brandstof kon voorzien.
Een MQ-9 Reaper. Krediet:Amerikaanse luchtmacht
Met een autonoom drone-wapensysteem, bepaalde regels computercode zouden vrijwel zeker als dual-use worden aangemerkt. Bedrijven als Google, zijn medewerkers of zijn systemen, zou kunnen worden aangevallen door een vijandelijke staat. Bijvoorbeeld, als Google's Project Maven AI-software voor beeldherkenning wordt geïntegreerd in een Amerikaanse militaire autonome drone, Google zou betrokken kunnen raken bij de 'doden'-business van drones, net als elke andere burger die bijdraagt aan dergelijke dodelijke autonome systemen.
Etisch, er zijn nog donkerdere problemen. Het hele punt van de zelflerende algoritmen - programma's die onafhankelijk leren van de gegevens die ze kunnen verzamelen - die technologie gebruikt, is dat ze beter worden in elke taak die ze krijgen. Als een dodelijke autonome drone beter wil worden in zijn werk door zelfstudie, iemand zal moeten beslissen over een acceptabel ontwikkelingsstadium – hoeveel het nog moet leren – waarin het kan worden ingezet. In gemilitariseerde machine learning, dat betekent politiek, militaire en industriële leiders zullen moeten specificeren hoeveel burgerdoden als acceptabel zullen worden beschouwd als de technologie wordt verfijnd.
Recente ervaringen met autonome AI in de samenleving moeten als waarschuwing dienen. Het fatale experiment van Uber met een zelfrijdende Tesla garandeert vrijwel dat er onbedoelde autonome drone-doden zullen zijn als computerbugs worden gladgestreken.
Als machines worden overgelaten om te beslissen wie sterft, vooral op grote schaal, dan zijn we getuige van uitroeiing. Elke regering of leger dat dergelijke krachten ontketent, zou de waarden schenden die het beweerde te verdedigen. In vergelijking, een dronepiloot die worstelt met een "doden of niet doden"-beslissing, wordt het laatste overblijfsel van de mensheid in de vaak onmenselijke oorlogvoering.
Dit artikel is oorspronkelijk gepubliceerd op The Conversation. Lees het originele artikel.
Wetenschap © https://nl.scienceaq.com