science >> Wetenschap >  >> Elektronica

Accenture lanceert nieuwe tool om klanten te helpen oneerlijke vooroordelen in AI-algoritmen te identificeren en op te lossen

Krediet:CC0 Publiek Domein

Accenture, een professionele dienstverlener, zal binnenkort een nieuwe tool lanceren die bedoeld is om zijn klanten te helpen oneerlijke vooroordelen in AI-algoritmen te vinden. Zodra een dergelijke oneerlijke vooringenomenheid wordt ontdekt, vertegenwoordigers van het bedrijf hebben de pers verteld, ze kunnen worden verwijderd.

Terwijl wetenschappers en ingenieurs AI-technologie blijven verbeteren, meer bedrijven gebruiken op AI gebaseerde tools om zaken te doen. Het gebruik van AI-applicaties om kredietaanvragen te verwerken wordt routine, bijvoorbeeld. Maar er bestaat bezorgdheid dat dergelijke toepassingen mogelijk vooroordelen hebben ingebouwd, die resultaten opleveren die als oneerlijk kunnen worden opgevat. Dergelijke toepassingen kunnen, bijvoorbeeld, een ingebakken raciale of gendervooroordeel hebben, wat de resultaten zou kunnen vertekenen. In antwoord op dergelijke beweringen, veel grote bedrijven zijn begonnen met het toevoegen van bias-screeners aan hun reeks applicaties. Maar zoals vertegenwoordigers van Accenture hebben opgemerkt, kleinere bedrijven hebben daar waarschijnlijk niet de middelen voor. De nieuwe tool die ze hebben ontwikkeld, zal met deze bedrijven in het achterhoofd op de markt worden gebracht.

Een prototype van de nieuwe tool (die sommigen de Fairness Tool zijn gaan noemen) wordt momenteel in de praktijk getest met een onbekende partner op kredietrisicotoepassingen. Het bedrijf heeft aangekondigd dat het in de nabije toekomst een zachte lancering plant. Ze hebben ook aangekondigd dat de tool deel zal uitmaken van een groter programma dat wordt aangeboden door het bedrijf AI Launchpad. Naast AI-tools, het programma omvat ook trainingen op het gebied van ethiek en aansprakelijkheid voor werknemers.

Om erachter te komen welke soorten gegevens die door een AI-toepassing worden gebruikt, vooringenomenheid kunnen vertegenwoordigen, de tool maakt gebruik van statistische methoden die zijn ontworpen om vooraf gedefinieerde variabelen als eerlijk of oneerlijk te vergelijken. Het zal ook kijken naar andere variabelen die verborgen vooringenomenheid kunnen bevatten. Gegevens die inkomen, bijvoorbeeld, zou een verborgen vooroordeel tegen vrouwen of minderheden kunnen vertegenwoordigen, zelfs als er geen gegevens zijn die geslacht of ras specificeren. De tool kan ook worden gebruikt om wijzigingen in het algoritme van een klant door te voeren, hopelijk minder vooringenomen. Maar vertegenwoordigers van Accenture merken op dat hierdoor is vastgesteld dat sommige algoritmen over het algemeen minder nauwkeurig zijn.

© 2018 Tech Xplore