science >> Wetenschap >  >> Elektronica

Opstand van Google-werknemers tegen militair project groeit

Ongeveer een dozijn Google-medewerkers zouden het bedrijf verlaten vanwege de samenwerking met het Amerikaanse leger op het gebied van drones

Een interne petitie waarin Google wordt opgeroepen zich buiten "oorlogszaken" te houden, kreeg dinsdag steun. waarbij sommige arbeiders naar verluidt stoppen om te protesteren tegen een samenwerking met het Amerikaanse leger.

ongeveer 4, 000 Google-medewerkers zouden een petitie hebben ondertekend die ongeveer drie maanden geleden begon te circuleren en er bij de internetgigant op aandrong geen kunstmatige intelligentie te gebruiken om Amerikaanse militaire drones beter te laten herkennen wat ze controleren.

Technieuwswebsite Gizmodo meldde deze week dat ongeveer een dozijn Google-medewerkers stoppen in een ethisch standpunt.

Het in Californië gevestigde bedrijf reageerde niet onmiddellijk op vragen over wat werd aangeduid als Project Maven, die naar verluidt gebruik maakt van machine learning en technisch talent om mensen en objecten te onderscheiden in drone-video's voor het ministerie van Defensie.

"Wij zijn van mening dat Google zich niet met oorlog moet bemoeien, " de petitie luidt, volgens exemplaren die online zijn geplaatst.

"Daarom, we vragen dat Project Maven wordt geannuleerd, en dat Google-concept, publiceer en handhaaf een duidelijk beleid waarin staat dat noch Google, noch zijn contractanten ooit oorlogstechnologie zullen bouwen."

'Stap weg' van moordende drones

De Electronic Frontier Foundation, een internetrechtengroep, en het International Committee for Robot Arms Control (ICRAC) behoorden tot degenen die met steun hebben meegedacht.

Hoewel rapporten aangaven dat bevindingen van kunstmatige intelligentie zouden worden beoordeeld door menselijke analisten, de technologie kan de weg vrijmaken voor geautomatiseerde richtsystemen op bewapende drones, ICRAC argumenteerde in een open steunbrief aan Google-medewerkers tegen het project.

"Nu militaire commandanten de algoritmen voor objectherkenning als betrouwbaar gaan beschouwen, het zal verleidelijk zijn om menselijke beoordeling en toezicht op deze systemen af ​​te zwakken of zelfs te verwijderen, ' zei ICRAC in de brief.

"We zijn dan nog maar een kleine stap verwijderd van het autoriseren van autonome drones om automatisch te doden, zonder menselijk toezicht of zinvolle menselijke controle."

Google heeft officieel verklaard dat zijn werk om het vermogen van machines om objecten te herkennen te verbeteren, niet voor aanstootgevend gebruik is, maar gepubliceerde documenten tonen een "troebeler" beeld, Cindy Cohn en Peter Eckersley van de EFF zeiden vorige maand in een online post.

"Als onze lezing van het openbare register correct is, systemen die Google ondersteunt of bouwt, mensen of objecten die door drones worden gezien, zouden markeren voor beoordeling door mensen, en in sommige gevallen zou dit leiden tot daaropvolgende raketaanvallen op die mensen of objecten, " zeiden Cohn en Eckersley.

"Dat zijn flinke ethische belangen, zelfs met mensen in de lus verder langs de 'kill chain'."

De EFF en anderen verwelkomden het interne Google-debat, benadrukt de noodzaak van morele en ethische kaders met betrekking tot het gebruik van kunstmatige intelligentie in wapens.

"Het gebruik van AI in wapensystemen is een uiterst belangrijk onderwerp en verdient een internationale publieke discussie en waarschijnlijk enkele internationale overeenkomsten om de wereldwijde veiligheid te waarborgen, ' zeiden Cohn en Eckersley.

"Bedrijven als Google, evenals hun tegenhangers over de hele wereld, moeten de gevolgen overwegen en echte verantwoordelijkheid en gedragsnormen eisen van de militaire instanties die hun expertise zoeken - en van zichzelf."

© 2018 AFP