Wetenschap
Robotica wordt snel getransformeerd door de vooruitgang in kunstmatige intelligentie. En de voordelen zijn wijdverbreid:we zien veiligere voertuigen met de mogelijkheid om automatisch te remmen in geval van nood, robotarmen die fabriekslijnen transformeren die ooit offshore waren en nieuwe robots die alles kunnen, van boodschappen doen tot medicijnen op recept bezorgen aan mensen die moeite hebben om het zelf te doen.
Maar onze steeds groeiende honger naar intelligente, autonome machines stellen tal van ethische uitdagingen met zich mee.
Snelle vooruitgang heeft geleid tot ethische dilemma's
Deze ideeën en meer wervelden toen mijn collega's en ik elkaar begin november ontmoetten op een van 's werelds grootste op autonome robotica gerichte onderzoeksconferenties - de IEEE International Conference on Intelligent Robots and Systems. Daar, academici, bedrijfsonderzoekers, en overheidswetenschappers presenteerden ontwikkelingen in algoritmen waarmee robots hun eigen beslissingen kunnen nemen.
Zoals met alle technologie, het bereik van toekomstige toepassingen voor ons onderzoek is moeilijk voor te stellen. Het is zelfs nog uitdagender om te voorspellen hoe snel dit veld verandert. Nemen, bijvoorbeeld, het vermogen van een computer om objecten in een afbeelding te identificeren:in 2010, de stand van de techniek was slechts ongeveer de helft van de tijd succesvol, en het bleef daar jarenlang hangen. Vandaag, Hoewel, de beste algoritmen zoals getoond in gepubliceerde artikelen hebben nu een nauwkeurigheid van 86%. Alleen al door die vooruitgang kunnen autonome robots begrijpen wat ze door de cameralenzen zien. Het toont ook het snelle tempo van vooruitgang in het afgelopen decennium als gevolg van ontwikkelingen op het gebied van AI.
Dit soort verbeteringen is technisch gezien een echte mijlpaal. Terwijl in het verleden het handmatig bekijken van grote hoeveelheden videobeelden een ongelooflijk aantal uren zou vergen, nu kunnen dergelijke gegevens snel en nauwkeurig worden geparseerd door een computerprogramma.
Maar het roept ook een ethisch dilemma op. Door mensen uit het proces te verwijderen, de aannames die ten grondslag liggen aan de beslissingen met betrekking tot privacy en veiligheid zijn fundamenteel gewijzigd. Bijvoorbeeld, het gebruik van camera's in de openbare straten heeft 15 of 20 jaar geleden geleid tot bezorgdheid over de privacy, maar het toevoegen van nauwkeurige gezichtsherkenningstechnologie verandert die privacyimplicaties drastisch.
Eenvoudig aan te passen systemen
Bij het ontwikkelen van machines die eigen beslissingen kunnen nemen - meestal autonome systemen genoemd - zijn de ethische vragen die zich voordoen aantoonbaar meer zorgwekkend dan die bij objectherkenning. AI-versterkte autonomie ontwikkelt zich zo snel dat mogelijkheden die ooit beperkt waren tot hoogtechnologische systemen, nu beschikbaar zijn voor iedereen met een huishoudelijke gereedschapskist en enige computerervaring.
Mensen zonder achtergrond in informatica kunnen enkele van de meest geavanceerde kunstmatige-intelligentietools leren, en robots zijn meer dan bereid om u uw nieuw verworven machine learning-technieken op hen te laten uitvoeren. Er zijn online forums vol met mensen die graag iedereen willen helpen om dit te leren.
Met eerdere tools het was al gemakkelijk genoeg om je minimaal aangepaste drone te programmeren om een rode tas te identificeren en deze te volgen. Recentere technologie voor objectdetectie ontgrendelt de mogelijkheid om een reeks dingen te volgen die lijken op meer dan 9, 000 verschillende objecttypes. In combinatie met nieuwere, meer wendbare drones, het is niet moeilijk voor te stellen hoe gemakkelijk ze kunnen worden uitgerust met wapens. Wat houdt iemand tegen om een explosief of een ander wapen vast te binden aan een drone die is uitgerust met deze technologie?
Met behulp van verschillende technieken, autonome drones vormen nu al een bedreiging. Ze zijn betrapt op het laten vallen van explosieven op Amerikaanse troepen, luchthavens sluiten en worden gebruikt bij een moordaanslag op de Venezolaanse leider Nicolas Maduro. De autonome systemen die nu worden ontwikkeld, kunnen het opzetten van dergelijke aanvallen eenvoudiger en verwoestender maken.
Regelgeving of beoordelingscommissies?
Ongeveer een jaar geleden, een groep onderzoekers op het gebied van kunstmatige intelligentie en autonome robotica heeft een belofte gedaan om geen dodelijke autonome wapens te ontwikkelen. Ze definieerden dodelijke autonome wapens als platforms die in staat zijn om 'doelen te selecteren en aan te vallen zonder menselijke tussenkomst'. Als robotica-onderzoeker die niet geïnteresseerd is in het ontwikkelen van autonome targetingtechnieken, Ik voelde dat de belofte de kern van het gevaar miste. Het verdoezelde belangrijke ethische vragen die moeten worden aangepakt, vooral die op het brede kruispunt van drone-toepassingen die goedaardig of gewelddadig kunnen zijn.
Voor een, de onderzoekers, bedrijven en ontwikkelaars die de papieren hebben geschreven en de software en apparaten hebben gebouwd, doen het over het algemeen niet om wapens te maken. Echter, ze kunnen onbedoeld anderen inschakelen, met minimale expertise, om dergelijke wapens te maken.
Wat kunnen we doen om dit risico aan te pakken?
Regelgeving is een optie, en een die al wordt gebruikt door drones in de buurt van luchthavens of rond nationale parken te verbieden. Die zijn handig, maar ze voorkomen niet de creatie van bewapende drones. Traditionele wapenregelgeving is geen afdoende sjabloon, of. Ze verscherpen over het algemeen de controle op het bronmateriaal of het productieproces. Dat zou bijna onmogelijk zijn met autonome systemen, waar de bronmaterialen op grote schaal gedeelde computercode zijn en het fabricageproces thuis kan plaatsvinden met gebruikmaking van kant-en-klare componenten.
Een andere optie zou zijn om in de voetsporen van biologen te treden. 1975, ze hielden een conferentie over de mogelijke gevaren van recombinant DNA in Asilomar in Californië. Daar, deskundigen stemden in met vrijwillige richtlijnen die richting zouden geven aan toekomstige werkzaamheden. Voor autonome systemen, een dergelijke uitkomst lijkt op dit moment onwaarschijnlijk. Veel onderzoeksprojecten die kunnen worden gebruikt bij de ontwikkeling van wapens hebben ook vreedzame en ongelooflijk nuttige resultaten.
Een derde keuze zou zijn om op organisatieniveau zelfbestuursorganen op te richten, zoals de institutionele beoordelingsraden die momenteel toezicht houden op studies over menselijke onderwerpen bij bedrijven, universiteiten en overheidslaboratoria. Deze raden overwegen de voordelen voor de bevolking die betrokken is bij het onderzoek en bedenken manieren om mogelijke schade te beperken. Maar ze kunnen alleen onderzoek regelen dat binnen hun instellingen wordt gedaan, wat hun reikwijdte beperkt.
Nog altijd, een groot aantal onderzoekers zou onder de bevoegdheid van deze raden vallen - binnen de autonome robotica-onderzoeksgemeenschap, bijna elke presentator op technische conferenties is lid van een instelling. Onderzoekscommissies zouden een eerste stap zijn in de richting van zelfregulering en zouden projecten kunnen markeren die zouden kunnen worden bewapend.
Leven met gevaar en belofte
Veel van mijn collega's en ik zijn enthousiast om de volgende generatie autonome systemen te ontwikkelen. Ik heb het gevoel dat het potentieel voor het goede te veelbelovend is om te negeren. Maar ik maak me ook zorgen over de risico's die nieuwe technologieën met zich meebrengen, vooral als ze worden uitgebuit door kwaadwillenden. Maar met wat zorgvuldige organisatie en geïnformeerde gesprekken vandaag, Ik geloof dat we kunnen werken aan het bereiken van die voordelen en tegelijkertijd de kans op schade kunnen beperken.
Dit artikel is opnieuw gepubliceerd vanuit The Conversation onder een Creative Commons-licentie. Lees het originele artikel.
Wetenschap © https://nl.scienceaq.com