Wetenschap
Er zijn groeiende zorgen over de potentiële risico's van AI - en toenemende kritiek op technologiereuzen. In het kielzog van wat een AI-terugslag of "techlash" wordt genoemd, staten en bedrijven worden zich bewust van het feit dat het ontwerp en de ontwikkeling van AI ethisch, de samenleving ten goede komen en de mensenrechten beschermen.
In de afgelopen maanden, Google heeft te maken gehad met protesten van zijn eigen personeel tegen het AI-werk van het bedrijf met het Amerikaanse leger. Het Amerikaanse ministerie van Defensie heeft Google gecontracteerd om AI te ontwikkelen voor het analyseren van dronebeelden in wat bekend staat als "Project Maven".
Een Google-woordvoerder zou hebben gezegd:"de reactie was verschrikkelijk voor het bedrijf" en "het is onze plicht om leiderschap te tonen." Ze verwees naar 'plannen om nieuwe ethische principes te onthullen'. Deze principes zijn nu vrijgegeven.
CEO van Google, Sundar Pichar, erkende dat "dit gebied dynamisch en in ontwikkeling is" en zei dat Google bereid zou zijn "onze aanpak aan te passen terwijl we in de loop van de tijd leren". Dit is belangrijk omdat, terwijl de principes een begin zijn, meer werk en meer concrete toezeggingen zijn nodig als Google effectief wil worden in het beschermen van mensenrechten.
Google's principes over AI
Google verbindt zich er ook toe om het volgende niet na te streven:
Maar er zijn weinig details over hoe het dit daadwerkelijk zal doen.
AI-toepassingen kunnen een breed scala aan schade veroorzaken
De principes van Google erkennen het risico van vooringenomenheid van AI en de bedreiging voor de privacy. Dit is belangrijk in het licht van de bevindingen dat Google-zoekalgoritmen raciale en genderstereotypen kunnen reproduceren. Maar de principes erkennen de bredere risico's voor alle mensenrechten en de noodzaak om ze te beschermen niet. Bijvoorbeeld, bevooroordeelde algoritmen leiden niet alleen tot discriminatie, maar kunnen ook de toegang tot vacatures beïnvloeden.
Afgezien van de zoekmachine, Andere bedrijven van Google kunnen ook mensenrechtenkwesties ter sprake brengen. Google heeft het bedrijf Jigsaw opgericht, die AI gebruikt om online inhoud te beheren in een poging om beledigend taalgebruik aan te pakken, gevaren, en online pesten. Maar contentmoderatie kan ook een bedreiging vormen voor het recht op vrijheid van meningsuiting.
Google Brain gebruikt machine learning om gezondheidsresultaten te voorspellen uit medische dossiers, en Google Cloud gaan samenwerken met Fitbit. Beide voorbeelden geven aanleiding tot bezorgdheid over privacy en gegevensbescherming. Onze collega's hebben zich ook afgevraagd of partnerschappen zoals Google DeepMind en de NHS de verplichtingen van staten om een gezondheidszorgsysteem op te zetten dat "gelijke kansen biedt voor mensen om het hoogst haalbare niveau van gezondheid te genieten" ten goede komen of ondermijnen.
Wat moet Google doen?
De algemene aanpak van Google moet gebaseerd zijn op het vinden van manieren waarop AI gunstig kan zijn voor de samenleving zonder de mensenrechten te schenden. Het eerste principe uitleggend als "sociaal voordelig, " Google zegt dat het alleen "doorgaat als we geloven dat de algemene waarschijnlijke voordelen de voorzienbare risico's en nadelen aanzienlijk overtreffen." Maar een benadering die de risico's afweegt tegen de voordelen is niet verenigbaar met mensenrechten. Een staat of bedrijf zoals Google, kan geen AI ontwikkelen die belooft sommige mensen ten goede te komen ten koste van de mensenrechten van enkelen of een bepaalde gemeenschap. Liever, het moet een manier vinden om ervoor te zorgen dat AI de mensenrechten niet schaadt.
Dus, Google moet tijdens de ontwikkeling en implementatie volledig rekening houden met de effecten van AI op mensenrechten. Vooral zo, omdat er risico's kunnen ontstaan, zelfs als de technologie niet is ontworpen voor schadelijke doeleinden. Internationale mensenrechtennormen en -normen – waaronder de VN-richtlijnen voor bedrijven en mensenrechten – dekken zowel het doel als het effect van acties door bedrijven, inclusief Google, over mensenrechten. Deze bestaande verantwoordelijkheden moeten veel duidelijker worden weerspiegeld in de principes van Google, met name over de positieve actie die Google zal ondernemen om de schending van de mensenrechten te beschermen, ook al is het onbedoeld.
Om verantwoordelijk te zijn over hoe het AI ontwikkelt en implementeert, Google moet verder gaan dan de huidige voorlopige taal over het aanmoedigen van privacy-architecturen en het zorgen voor "passende menselijke leiding en controle" zonder uit te leggen wie beslist wat gepast is en op welke basis. Het moet mensenrechten verankeren in het ontwerp van AI en waarborgen zoals mensenrechteneffectbeoordelingen en onafhankelijke toezicht- en evaluatieprocessen in de beginselen opnemen.
De beginselen moeten ook gedetailleerd beschrijven hoe de schendingen van de mensenrechten zullen worden verholpen en hoe de getroffen individuen en groepen een claim kunnen indienen, die momenteel afwezig is.
De weg vooruit?
Lancering van de principes, Google's CEO Sundar Pichar erkende dat de manier waarop AI wordt ontwikkeld en gebruikt "voor de komende jaren een aanzienlijke impact op de samenleving zal hebben". De pioniersrol van Google op het gebied van AI betekent dat het bedrijf, volgens Sundar, "voelt een diepe verantwoordelijkheid om dit goed te doen."
Hoewel de principes een belangrijk begin zijn, ze hebben veel meer ontwikkeling nodig als we er zeker van willen zijn dat onze mensenrechten worden beschermd. De volgende stap is dat Google mensenrechten verankert, waarborgen en verantwoordingsprocessen tijdens hun AI-ontwikkeling. Dat is wat nodig is om 'dit goed te krijgen'.
Dit artikel is oorspronkelijk gepubliceerd op The Conversation. Lees het originele artikel.
Wetenschap © https://nl.scienceaq.com