Wetenschap
Krediet:CC0 Publiek Domein
Wetenschappers zeggen dat ze een raamwerk hebben ontwikkeld om computeralgoritmen "veiliger" in gebruik te maken zonder vooroordelen op basis van ras, geslacht of andere factoren. De truc, ze zeggen, is om het voor gebruikers mogelijk te maken om het algoritme te vertellen welke valkuilen ze moeten vermijden, zonder dat ze veel hoeven te weten over statistieken of kunstmatige intelligentie.
Met deze beveiliging op zijn plaats, ziekenhuizen, bedrijven en andere potentiële gebruikers die misschien op hun hoede zijn om machine learning te gebruiken, kunnen het een prettiger hulpmiddel vinden om hen te helpen problemen op te lossen, volgens een rapport in de editie van deze week van het tijdschrift Wetenschap .
Computeralgoritmen worden gebruikt om beslissingen te nemen in verschillende situaties, van rechtszalen tot scholen tot online winkelsites. De programma's doorzoeken enorme hoeveelheden gegevens op zoek naar bruikbare patronen die kunnen worden toegepast op toekomstige beslissingen.
Maar onderzoekers worstelen met een probleem dat steeds moeilijker te negeren is:hoewel de programma's geautomatiseerd zijn, ze geven vaak vertekende resultaten.
Bijvoorbeeld, een algoritme dat werd gebruikt om gevangenisstraffen te bepalen voorspelde hogere recidivecijfers voor zwarte verdachten die schuldig werden bevonden aan misdaden en een lager risico voor blanke verdachten. Die voorspellingen bleken niet te kloppen, volgens een ProPublica-analyse.
Vooroordelen als deze vinden hun oorsprong vaak in de echte wereld. Een algoritme dat werd gebruikt om te bepalen welke patiënten in aanmerking kwamen voor een programma voor de coördinatie van de gezondheidszorg, was dat zwarte patiënten te weinig werden ingeschreven, grotendeels omdat de code afhankelijk was van gegevens over de echte gezondheidsuitgaven - en zwarte patiënten hadden minder dollars aan hen uitgegeven dan blanken.
Zelfs als de informatie zelf niet bevooroordeeld is, algoritmen kunnen nog steeds oneerlijke of andere "ongewenste resultaten, " zei Philip Thomas, een kunstmatige intelligentie-onderzoeker aan de Universiteit van Massachusetts Amherst en hoofdauteur van de nieuwe studie.
Uitzoeken welke processen die oneerlijke resultaten kunnen veroorzaken, om ze vervolgens te repareren, kan een overweldigende taak zijn voor artsen, ziekenhuizen of andere potentiële gebruikers die gewoon een tool willen waarmee ze betere beslissingen kunnen nemen.
"Ze zijn de experts in hun vakgebied, maar misschien niet op het gebied van machine learning, dus we moeten niet verwachten dat ze gedetailleerde kennis hebben van hoe algoritmen werken om het gedrag van de algoritmen te controleren. Thomas zei. "We willen ze een eenvoudige interface geven om ongewenst gedrag voor hun toepassing te definiëren en er vervolgens voor te zorgen dat het algoritme dat gedrag met grote waarschijnlijkheid zal vermijden."
Dus ontwikkelden de computerwetenschappers een ander type algoritme waarmee gebruikers gemakkelijker konden definiëren welk slecht gedrag ze wilden dat hun programma zou vermijden.
Dit, natuurlijk, maakt het werk van de algoritmeontwerpers moeilijker, Tomas zei, omdat ze hun algoritme moeten bouwen zonder te weten welke vooroordelen of ander problematisch gedrag de uiteindelijke gebruiker niet in het programma wil.
"In plaats daarvan, ze moeten het algoritme slim genoeg maken om te begrijpen wat de gebruiker zegt dat ongewenst gedrag is, en dan helemaal alleen redeneren over wat dit gedrag zou veroorzaken, en vermijd het dan met grote waarschijnlijkheid, " zei hij. "Dat maakt het algoritme een beetje ingewikkelder, maar veel gemakkelijker voor mensen om verantwoord te gebruiken."
Om hun nieuwe raamwerk te testen, probeerden de onderzoekers het uit op een dataset van toelatingsexamenscores voor 43, 303 Braziliaanse studenten en het gemiddelde cijfer dat ze verdienden tijdens hun eerste drie semesters op de universiteit.
Standaardalgoritmen die probeerden de GPA van een student te voorspellen op basis van zijn of haar toelatingsexamenscores, waren bevooroordeeld tegen vrouwen:de cijfers die ze voorspelden voor vrouwen waren lager dan in werkelijkheid het geval was, en de cijfers die ze voorspelden voor mannen waren hoger. Dit veroorzaakte een foutenkloof tussen mannen en vrouwen van gemiddeld 0,3 GPA-punten - genoeg om een groot verschil te maken in de toelatingsvooruitzichten van een student.
Het nieuwe algoritme, anderzijds, verkleinde dat foutenbereik tot binnen 0,05 GPA-punten, waardoor het een veel eerlijkere voorspeller is van het succes van studenten.
De computerwetenschappers probeerden ook hun raamwerk uit op gesimuleerde gegevens voor diabetespatiënten. Ze ontdekten dat het de insulinedosering van een patiënt effectiever kon aanpassen dan een standaardalgoritme. wat resulteert in veel minder ongewenste episodes van hypoglykemie.
Maar anderen zetten vraagtekens bij de nieuwe aanpak.
Dr. Leo Anthony Celi, een intensivist bij het Beth Israel Deaconess Medical Center en onderzoekswetenschapper aan het MIT, betoogde dat de beste manier om vooringenomenheid en andere problemen te voorkomen, is om experts op het gebied van machine learning gedurende het hele proces op de hoogte te houden in plaats van hun inbreng te beperken tot de eerste ontwerpfasen. Op die manier kunnen ze zien of een algoritme zich slecht gedraagt en de nodige reparaties uitvoeren.
"Daar kun je gewoon niet omheen, " zei Celie, die hielpen bij het ontwikkelen van een programma voor kunstmatige intelligentie om de behandelingsstrategieën voor patiënten met sepsis te verbeteren.
Hetzelfde, eerstelijnsgebruikers zoals artsen, verpleegkundigen en apothekers moeten een actievere rol spelen bij de ontwikkeling van de algoritmen waarop ze vertrouwen, hij zei.
De auteurs van de nieuwe studie waren er snel bij om erop te wijzen dat hun raamwerk belangrijker was dan de algoritmen die ze door het te gebruiken.
"We zeggen niet dat dit de beste algoritmen zijn, " zei Emma Brunskill, een computerwetenschapper aan de Stanford University en de senior auteur van het artikel. "We hopen dat andere onderzoekers in hun eigen labs betere algoritmen zullen blijven maken."
Brunskill voegde eraan toe dat ze graag zou zien dat het nieuwe raamwerk mensen aanmoedigt om algoritmen toe te passen op een breder scala aan gezondheids- en sociale problemen.
Het nieuwe werk zal zeker het debat aanwakkeren - en misschien meer noodzakelijke gesprekken tussen de gezondheidszorg en machine learning-gemeenschappen, zei Celi.
"Als het ervoor zorgt dat mensen meer discussies hebben, dan vind ik het waardevol, " hij zei.
©2019 Los Angeles Times
Gedistribueerd door Tribune Content Agency, LLC.
Wetenschap © https://nl.scienceaq.com