science >> Wetenschap >  >> Elektronica

Zullen we ooit instemmen met slechts één set regels over de ethische ontwikkeling van kunstmatige intelligentie?

Iedereen heeft zijn eigen idee over het ethisch gebruik van AI, maar kunnen we een wereldwijde consensus krijgen? Krediet:Shutterstock/EtiAmmos

Australië is een van de 42 landen die vorige week een nieuwe reeks beleidsrichtlijnen hebben ondertekend voor de ontwikkeling van kunstmatige intelligentie (AI) -systemen.

Toch heeft Australië zijn eigen ontwerprichtlijnen voor ethiek in AI die voor openbare raadpleging beschikbaar zijn, en een aantal andere landen en brancheorganisaties hebben hun eigen AI-richtlijnen ontwikkeld.

Dus waarom hebben we zoveel richtlijnen nodig, en is een van hen afdwingbaar?

De nieuwe principes

De nieuwste reeks beleidsrichtlijnen is de aanbeveling over kunstmatige intelligentie van de Organisatie voor Economische Samenwerking en Ontwikkeling (OESO).

Het bevordert vijf principes voor de verantwoorde ontwikkeling van betrouwbare AI. Het bevat ook vijf complementaire strategieën voor de ontwikkeling van nationaal beleid en internationale samenwerking.

Aangezien dit afkomstig is van de OESO, het betreedt de grens tussen het bevorderen van economische verbetering en innovatie en het bevorderen van fundamentele waarden en vertrouwen in de ontwikkeling van AI.

De vijf AI-principes stimuleren:

  1. inclusieve groei, duurzame ontwikkeling en welzijn
  2. mensgerichte waarden en eerlijkheid
  3. transparantie en verklaarbaarheid
  4. robuustheid, veiligheid en veiligheid
  5. verantwoordelijkheid.

Deze aanbevelingen zijn breed en hebben niet de kracht van wetten of zelfs regels. In plaats daarvan proberen ze de lidstaten aan te moedigen om deze waarden of ethiek op te nemen in de ontwikkeling van AI.

Maar wat bedoelen we met AI?

Het is moeilijk om concrete aanbevelingen te doen met betrekking tot AI. Dat komt deels omdat AI niet één ding is met een enkele applicatie die enkelvoudige risico's of bedreigingen met zich meebrengt.

In plaats daarvan, AI is een algemene term geworden om naar een groot aantal verschillende systemen te verwijzen. Elk is typisch ontworpen om gegevens te verzamelen en te verwerken met behulp van computertechnologie, aanpassen aan verandering, en rationeel handelen om zijn doelstellingen te bereiken, uiteindelijk zonder menselijke tussenkomst.

Die doelstellingen kunnen net zo verschillend zijn als het vertalen van taal, gezichten herkennen, of zelfs schaken.

Het type AI dat uitzonderlijk goed is in het behalen van deze doelstellingen, wordt vaak smalle AI genoemd. Een goed voorbeeld is een schaakspelende AI. Dit is speciaal ontworpen om te schaken - en is er buitengewoon goed in - maar volledig nutteloos bij andere taken.

Aan de andere kant is algemene AI. Dit is AI waarvan wordt gezegd dat het de menselijke intelligentie in de meeste, zo niet alle taken zal vervangen. Dit is nog ver weg, maar blijft het uiteindelijke doel van sommige AI-ontwikkelaars.

Toch is het dit idee van algemene AI dat veel van de angsten en misvattingen rond AI veroorzaakt.

Vele vele richtlijnen

Als antwoord op deze angsten en een aantal zeer reële problemen met smalle AI, de OESO-aanbevelingen zijn de laatste van een aantal projecten en richtlijnen van regeringen en andere instanties over de hele wereld die een ethische benadering van de ontwikkeling van AI proberen bij te brengen.

Deze omvatten initiatieven van het Institute of Electrical and Electronics Engineers, de Franse gegevensbeschermingsautoriteit, het Hong Kong Office of the Privacy Commissioner en de Europese Commissie.

De Australische overheid financierde CSIRO's Data61 om een ​​AI-ethisch kader te ontwikkelen, die nu openstaat voor publieke feedback, en de Australian Council of Learned Academies moet haar rapport over de toekomst van AI in Australië nog publiceren.

De Australische Mensenrechtencommissie, samen met het Wereld Economisch Forum, is ook bezig met het beoordelen van en rapporteren over de impact van AI op mensenrechten.

Het doel van deze initiatieven is om ethische ontwikkeling van AI aan te moedigen of te stimuleren. Maar dit veronderstelt onethisch gedrag. Wat is het kwaad in AI?

Onethische AI

Een studie identificeerde drie brede potentiële kwaadaardige toepassingen van AI. Deze doelen:

  • digitale beveiliging (bijv. door cyberaanvallen)
  • fysieke beveiliging (bijv. aanvallen met drones of hacking)
  • politieke veiligheid (bijv. als AI wordt gebruikt voor massasurveillance, overreding en bedrog).

Een punt van zorg evolueert in China, waar verschillende regio's een sociaal kredietsysteem ontwikkelen dat gekoppeld is aan massasurveillance met behulp van AI-technologieën.

Het systeem kan een persoon identificeren die sociale normen overtreedt (zoals jaywalking, omgang met criminelen, of misbruik van sociale media) en debiteer sociale kredietpunten van het individu.

Wanneer een kredietscore wordt verlaagd, de vrijheden van die persoon (zoals de vrijheid om te reizen of geld te lenen) worden beperkt. Hoewel dit nog geen landelijk systeem is, rapporten geven aan dat dit het uiteindelijke doel zou kunnen zijn.

Naast deze opzettelijke misbruiken van AI zijn er verschillende onbedoelde bijwerkingen van slecht geconstrueerde of geïmplementeerde smalle AI. Deze omvatten vooringenomenheid en discriminatie en de erosie van vertrouwen.

Consensus opbouwen over AI

Samenlevingen verschillen van mening over wat ethisch is. Zelfs mensen binnen samenlevingen verschillen van mening over wat zij als ethisch gedrag beschouwen. Dus hoe kan er ooit een wereldwijde consensus komen over de ethische ontwikkeling van AI?

Gezien de zeer brede reikwijdte van AI-ontwikkeling, elk beleid met betrekking tot ethische AI ​​kan nog niet specifieker zijn totdat we gedeelde normen voor ethisch gedrag kunnen identificeren die de basis kunnen vormen van enkele overeengekomen wereldwijde regels.

Door de waarden te ontwikkelen en uit te drukken, rechten en normen die we nu belangrijk vinden in de vorm van de hierboven geschetste rapporten en richtlijnen, we werken aan het opbouwen van vertrouwen tussen naties.

Gemeenschappelijke thema's komen naar voren in de verschillende richtlijnen, zoals de behoefte aan AI die rekening houdt met mensenrechten, veiligheid, veiligheid, transparantie, betrouwbaarheid en verantwoordelijkheid, dus we zijn misschien nog op weg naar een wereldwijde consensus.

Dit artikel is opnieuw gepubliceerd vanuit The Conversation onder een Creative Commons-licentie. Lees het originele artikel.