Wetenschap
Krediet:CC0 Publiek Domein
Onderzoekers van de Universiteit van Warwick, Imperial College Londen, EPFL (Lausanne) en Sciteb Ltd hebben een wiskundig middel gevonden om regelgevers en bedrijven te helpen bij het beheren en controleren van de vooroordelen van kunstmatige-intelligentiesystemen om onethische, en potentieel zeer kostbare en schadelijke commerciële keuzes - een ethisch oog op AI.
Kunstmatige intelligentie (AI) wordt steeds vaker ingezet in commerciële situaties. Denk bijvoorbeeld aan het gebruik van AI om prijzen vast te stellen van verzekeringsproducten die aan een bepaalde klant worden verkocht. Er zijn legitieme redenen om verschillende prijzen voor verschillende mensen vast te stellen, maar het kan ook winstgevend zijn om hun psychologie of hun bereidheid om te shoppen te 'spelen'.
De AI heeft een groot aantal potentiële strategieën om uit te kiezen, maar sommige zijn onethisch en zullen niet alleen morele kosten met zich meebrengen, maar ook een aanzienlijke potentiële economische boete, aangezien belanghebbenden een boete zullen opleggen als ze ontdekken dat een dergelijke strategie is gebruikt - regelgevers kunnen aanzienlijke boetes opleggen van miljarden dollars, Ponden of euro's en klanten kunnen u boycotten - of beide.
Dus in een omgeving waarin beslissingen steeds vaker worden genomen zonder menselijke tussenkomst, er is daarom een zeer sterke prikkel om te weten onder welke omstandigheden AI-systemen een onethische strategie kunnen aannemen en dat risico kunnen verkleinen of indien mogelijk volledig elimineren.
Wiskundigen en statistici van de Universiteit van Warwick, keizerlijk, EPFL en Sciteb Ltd zijn samengekomen om bedrijven en regelgevers te helpen bij het opstellen van een nieuw "onethisch optimalisatieprincipe" en om een eenvoudige formule te bieden om de impact ervan in te schatten. Ze hebben de volledige details uiteengezet in een document met de naam "Een onethisch optimalisatieprincipe", gepubliceerd in Royal Society Open Science op woensdag 1 juli 2020.
De vier auteurs van het artikel zijn Nicholas Beale van Sciteb Ltd; Heather Battey van het Departement Wiskunde, Imperial College Londen; Anthony C. Davison van het Instituut voor Wiskunde, Ecole Polytechnique Fédérale de Lausanne; en professor Robert MacKay van het Mathematics Institute van de University of Warwick.
Professor Robert MacKay van het Mathematics Institute van de University of Warwick zei:
"Ons voorgestelde 'onethische optimalisatieprincipe' kan worden gebruikt om regelgevers te helpen, compliance-personeel en anderen om problematische strategieën te vinden die mogelijk verborgen zijn in een grote strategieruimte. Optimalisatie zal naar verwachting onevenredig veel onethische strategieën kiezen, inspectie hiervan zou moeten uitwijzen waar problemen zich waarschijnlijk zullen voordoen en dus suggereren hoe het AI-zoekalgoritme moet worden aangepast om ze in de toekomst te vermijden.
"Het principe suggereert ook dat het misschien nodig is om de manier waarop AI opereert in zeer grote strategische ruimtes te heroverwegen, zodat onethische uitkomsten expliciet worden afgewezen in het optimalisatie-/leerproces."
Wetenschap © https://nl.scienceaq.com