Wetenschap
Een nieuw artikel van de RAND Corporation stelt vast dat kunstmatige intelligentie het potentieel heeft om de fundamenten van nucleaire afschrikking tegen het jaar 2040 op zijn kop te zetten.
Hoewel AI-gestuurde doomsday-machines als onwaarschijnlijk worden beschouwd, de gevaren van kunstmatige intelligentie voor nucleaire veiligheid liggen in het potentieel om mensen aan te moedigen potentieel apocalyptische risico's te nemen, volgens het papier.
Tijdens de Koude Oorlog, de voorwaarde van wederzijds verzekerde vernietiging handhaafde een ongemakkelijke vrede tussen de supermachten door ervoor te zorgen dat elke aanval zou worden beantwoord met een verwoestende vergelding. Wederzijdse verzekerde vernietiging stimuleerde daarbij strategische stabiliteit door de prikkels voor beide landen om acties te ondernemen die zouden kunnen escaleren in een nucleaire oorlog te verminderen.
De nieuwe RAND-publicatie zegt dat in de komende decennia, kunstmatige intelligentie heeft het potentieel om de toestand van wederzijds verzekerde vernietiging uit te hollen en de strategische stabiliteit te ondermijnen. Verbeterde sensortechnologieën zouden de mogelijkheid kunnen introduceren dat vergeldingstroepen zoals onderzeeërs en mobiele raketten kunnen worden gericht en vernietigd.
Naties kunnen in de verleiding komen om first-strike capaciteiten na te streven als een middel om onderhandelingspositie over hun rivalen te krijgen, zelfs als ze niet van plan zijn een aanval uit te voeren, zeggen onderzoekers. Dit ondermijnt de strategische stabiliteit, want zelfs als de staat die over deze capaciteiten beschikt niet van plan is ze te gebruiken, daar kan de tegenstander niet zeker van zijn.
"Het verband tussen nucleaire oorlog en kunstmatige intelligentie is niet nieuw, in feite hebben de twee een met elkaar verweven geschiedenis, " zei Edward Geist, co-auteur van de paper en associate beleidsonderzoeker bij de RAND Corporation, een non-profit, onpartijdige onderzoeksorganisatie. "Een groot deel van de vroege ontwikkeling van AI werd gedaan ter ondersteuning van militaire inspanningen of met militaire doelstellingen in gedachten."
Hij zei dat een voorbeeld van dergelijk werk het Survivable Adaptive Planning Experiment in de jaren tachtig was, dat AI probeerde te gebruiken om verkenningsgegevens te vertalen naar nucleaire doelplannen.
Onder toevallige omstandigheden, kunstmatige intelligentie kan ook de strategische stabiliteit verbeteren door de nauwkeurigheid bij het verzamelen en analyseren van inlichtingen te verbeteren, volgens het papier. Hoewel AI de kwetsbaarheid van second strike-troepen kan vergroten, verbeterde analyses voor het bewaken en interpreteren van acties van tegenstanders kunnen misrekeningen of verkeerde interpretaties verminderen die tot onbedoelde escalatie kunnen leiden.
Onderzoekers zeggen dat gezien toekomstige verbeteringen, het is mogelijk dat AI-systemen uiteindelijk capaciteiten ontwikkelen die, terwijl feilbaar, zouden minder foutgevoelig zijn dan hun menselijke alternatieven en daarom op de lange termijn stabiliseren.
"Sommige experts vrezen dat een toegenomen afhankelijkheid van kunstmatige intelligentie kan leiden tot nieuwe soorten catastrofale fouten, " zei Andrew Lohn, co-auteur op het papier en associate engineer bij RAND. "Er kan druk zijn om AI te gebruiken voordat het technologisch volwassen is, of het kan vatbaar zijn voor vijandige ondermijning. Daarom, het handhaven van strategische stabiliteit in de komende decennia kan buitengewoon moeilijk blijken te zijn en alle kernmachten moeten deelnemen aan het cultiveren van instellingen om het nucleair risico te helpen beperken."
RAND-onderzoekers baseerden hun perspectief op informatie verzameld tijdens een reeks workshops met experts op het gebied van nucleaire vraagstukken, overheidstakken, AI-onderzoek, AI-beleid en nationale veiligheid.
"Zal kunstmatige intelligentie het risico op een nucleaire oorlog vergroten?" is beschikbaar op http://www.rand.org.
Het perspectief maakt deel uit van een bredere inspanning om kritieke beveiligingsuitdagingen in de wereld van 2040 te visualiseren, rekening houdend met de gevolgen van politieke, technologisch, sociaal, en demografische trends die de komende decennia vorm zullen geven aan deze veiligheidsuitdagingen.
Financiering voor het Security 2040-initiatief werd verstrekt door giften van RAND-supporters en inkomsten uit operaties.
Het onderzoek is uitgevoerd binnen het RAND Centre for Global Risk and Security, die in de hele RAND Corporation werkt aan de ontwikkeling van multidisciplinair onderzoek en beleidsanalyses over systeemrisico's voor de wereldwijde veiligheid. Het centrum maakt gebruik van de expertise van RAND om RAND-onderzoek op vele gebieden aan te vullen en uit te breiden, inclusief beveiliging, economie, Gezondheid, en technologie.
Wetenschap © https://nl.scienceaq.com