science >> Wetenschap >  >> Elektronica

AIs ethisch probleem:abstracties overal, maar waar zijn de regels?

Krediet:CC0 Publiek Domein

Machines die beslissingen over ons nemen:wat kan er mis gaan? essays, toespraken, seminars stellen die vraag jaar in jaar uit, aangezien onderzoek naar kunstmatige intelligentie verbluffende vooruitgang boekt. Ingebakken vooroordelen in algoritmen zijn daardoor slechts een van de vele problemen.

Jonathan Shaw, hoofdredacteur, Harvard-tijdschrift , schreef eerder dit jaar:"Kunstmatige intelligentie kan enorme hoeveelheden gegevens verzamelen en beoordelen die soms de menselijke capaciteit te boven gaan om zonder hulp te analyseren, waardoor AI aanbevelingen kan doen voor het aannemen van personeel, binnen enkele seconden de kredietwaardigheid van leningaanvragers bepalen, en de kans voorspellen dat criminelen opnieuw zullen begaan."

Opnieuw, wat zou er mis kunnen gaan?

"AI-ontwikkeling heeft sterke morele begeleiding nodig als we enkele van de meer catastrofale scenario's willen vermijden die door AI-critici worden overwogen, " zei Stephen Fleischresser, docent, Trinity College van de Universiteit van Melbourne, in Kosmos .

Edd Gent in SingularityHub :"Zorgen rond privacy, transparantie en het vermogen van algoritmen om het sociale en politieke discours op onverwachte manieren te vervormen, hebben geleid tot een stortvloed aan uitspraken van bedrijven, regeringen, en zelfs supranationale organisaties over het uitvoeren van ethische AI-ontwikkeling."

Dus, de vraag wordt, wie let er op de AI-winkel? Als we ons al voorstellen wat er mis zou kunnen gaan met het AI-beeld, WHO, welke persoon, welke groepen, indien van toepassing, proberen al het gepraat te kanaliseren en leiding te nemen voor een werkende reeks regels?

Een goede en tijdige lezing hierover is naar voren gekomen in Natuur Machine Intelligentie . Het papier geeft je niet de enige oplossing, maar het schudt het gesprek op. Zoals de titel luidt, "Principes alleen kunnen geen ethische AI ​​garanderen."

De auteur, Brent Mittelstadt, is van het Oxford Internet Institute, Universiteit van Oxford, Oxford, VK en het Alan Turing Institute, Britse bibliotheek, Londen, VK.

Fleischresser beschreef Mittelstadt als "een ethicus wiens onderzoek voornamelijk digitale ethiek betreft in relatie tot algoritmen, machinaal leren, kunstmatige intelligentie, voorspellende analyse, Big Data en medische expertsystemen."

Het probleem was niet het gebrek aan gepraat; "Kunstmatige intelligentie (AI) ethiek is nu een wereldwijd onderwerp van discussie in academische en beleidskringen, Mittelstadt verklaarde. "Ten minste 84 publiek-private initiatieven hebben verklaringen geproduceerd die principes op hoog niveau beschrijven, waarden en andere principes om de ethische ontwikkeling te begeleiden, inzet en beheer van AI."

Het probleem is dat met al het gepraat, goedbedoelende stakeholders zijn niet veel verder gegaan dan het starthek. De ondersteunende laag van verheven uitspraken en vetgedrukte principes kan op zijn plaats zijn, maar waar is de bovenste laag? "Het echt moeilijke deel van ethiek - het daadwerkelijk vertalen van normatieve theorieën, concepten en waarden omzetten in goede praktijken die AI-beoefenaars kunnen toepassen - wordt op de weg geschopt zoals het spreekwoordelijke dat kan."

Hoewel hoge principes prijzenswaardig zijn, "Initiatieven op het gebied van KI-ethiek hebben tot nu toe grotendeels vage, principes en waardeverklaringen op hoog niveau die beloven actiegericht te zijn, maar in de praktijk bieden weinig specifieke aanbevelingen... Verklaringen van AI-bedrijven en ontwikkelaars die zich committeren aan ethische principes en zelfregulerende codes op hoog niveau, bieden beleidsmakers niettemin een reden om geen nieuwe regelgeving na te streven."

Mittelstadt zei dat "een principiële benadering een beperkte impact op het bestuur kan hebben. Wat ontbreekt:een uniform regelgevend kader dat "duidelijke fiduciaire plichten jegens betrokkenen en gebruikers" vaststelt. De afwezigheid van een fiduciaire relatie, hij zei, betekent dat gebruikers "niet kunnen vertrouwen dat ontwikkelaars in hun belang zullen handelen bij het implementeren van ethische principes in de praktijk."

De paper beschreef wat de auteur identificeerde als aandachtspunten voor de toekomst van AI-ethiek.

Juridische en professionele aansprakelijkheid was een van de belangrijkste onderwerpen die ter discussie stonden, namelijk:"het relatieve gebrek aan juridische en professionele verantwoordingsmechanismen." Waarom dit een probleem is:"Ernstige, langetermijnengagement voor zelfregulerende kaders kan niet als vanzelfsprekend worden beschouwd."

De auteur stelde de fundamentele vraag:gezien deze zwakke punten in bestaande wettelijke en professionele verantwoordingsmechanismen voor AI, men moet zich afvragen:"is het voldoende om goede bedoelingen te definiëren en er het beste van te hopen? Zonder complementaire strafmechanismen en bestuursorganen om in te grijpen wanneer zelfbestuur faalt, een principiële benadering loopt het risico dat er slechts valse garanties worden gegeven over ethische of betrouwbare AI."

Waar gaan we van hieruit in AI-ethiek?

De auteur zei dat deze "principiële" benadering coöperatief toezicht vereist. Denk aan "Bindende en goed zichtbare verantwoordingsstructuren" samen met "duidelijke implementatie- en toetsingsprocessen" op sectoraal en organisatorisch niveau. "Professionele en institutionele normen kunnen worden vastgesteld door duidelijke vereisten te definiëren voor inclusief ontwerp, transparante ethische beoordeling, documentatie van modellen en datasets, en onafhankelijke ethische controle."

© 2019 Wetenschap X Netwerk