science >> Wetenschap >  >> Elektronica

IBM:Als AI-beslissing nader moet worden bekeken, blijf wakker, en hier is hoe

Krediet:CC0 Publiek Domein

Oké we snappen het. Het gee-whiz-gevoel van kunstmatige intelligentie, zoals getoond in zijn ontwikkelingsglorie, is bij ons en we rijden gewillig op de golf.

Een ontnuchterende fase is echter zeker in de coulissen. Nu we AI hebben, wat doen we ermee, en beheren we, zelfs beoordelen, het goed?

"Zoals videogamers die op zoek zijn naar de volgende hack, medewerkers moeten toezicht houden, begrijpen, de kwetsbaarheden van hun tools in twijfel trekken en exploiteren en er verantwoording over afleggen, " zei John Summer, hoofdanalist bij HR-examinator .

"Digitale medewerkers staan ​​centraal in onze toekomst, maar het beheren ervan is heel anders dan het beheren van mensen of oudere software." Geciteerd in Personeelsfunctionaris :"...begrijp dat we aan het begin staan ​​van het bouwen en gebruiken van intelligente tools, er is veel werk voor de boeg en we zullen vanaf nu anders over onze machines moeten gaan denken."

De AI-supporters voor beslissingen zoals gebruikt door overheden en grote organisaties, ten slotte, hebben invloed op ons leven.

De grote vraag is, wie en wat trainen AI om beslissingen te nemen? Is er vooringenomenheid ingebakken in de trainingsfase? Als, hoe weet je zeker dat het resultaat de eerlijkste beslissing is?

Lang en kort, IBM-onderzoekers zijn druk bezig geweest met het bedenken van manieren om vooringenomenheid te verminderen in de datasets die worden gebruikt om AI te trainen. Waar zijn ze mee bezig? Moeten we gewoon naar weer een ander witboek kijken? Ze doen meer dan dat.

Ze leveren een beoordelingssysteem dat de relatieve eerlijkheid van een AI-systeem kan beoordelen.

Eerlijkheid is niet alleen iets dat de aandacht van IBM trok. Zoë Kleinman, technologie verslaggever, BBC nieuws, schreef, "Er is een toenemende bezorgdheid dat algoritmen die worden gebruikt door zowel techreuzen als andere bedrijven niet altijd eerlijk zijn in hun besluitvorming."

IBM's arsenaal aan technologietools voor kunstmatige intelligentie bevat nu een manier om onbewuste vooroordelen bij het nemen van beslissingen op te sporen. Bias is niet altijd gekleed in neonlichten en labels met magische markeringen. De helft van de tijd onderzoeken we zelfs ons eigen beoordelingsvermogen, ongemakkelijk voelen over de andere helft van ons die vermoedt dat de beslissing met vooringenomenheid is opgetuigd. Vergis je niet, Hoewel, onze sniffers hebben vaak gelijk.

"Een willekeurig aantal predisposities kan in een algoritme worden ingebakken, verborgen in een dataset of op een of andere manier bedacht tijdens de uitvoering van een project, " zei Jack Murtha woensdag in Nieuws over gezondheidszorganalyse .

IBM maakt deze week AI-gerelateerd nieuws.

IBM heeft een softwareservice aangekondigd die draait op IBM Cloud die vooroordelen kan detecteren en uitlegt hoe AI beslissingen neemt - terwijl de beslissingen worden genomen, zei Murtha.

"We geven nieuwe transparantie en controle aan de bedrijven die AI gebruiken en het grootste risico lopen door gebrekkige besluitvorming, " de algemeen directeur van Watson AI bij IBM, Beth Smit, verklaarde.

"Klanten kunnen zien, via een visueel dashboard, hoe hun algoritmen beslissingen nemen en welke factoren worden gebruikt bij het maken van de uiteindelijke aanbevelingen, ’ zei Kleinmans.

De cloudgebaseerde software van IBM zal open source zijn, en zal werken met enkele veelgebruikte frameworks voor het bouwen van algoritmen. Dus wat zal het eigenlijk doen?

Murtha heeft het uitgewerkt. (1) Het pingt "oneerlijke uitkomsten" realtime en (2) beveelt gegevens aan die vooringenomenheid kunnen verminderen; (3) IBM biedt ook adviesdiensten aan om de besluitvorming te doorbreken via sterkere bedrijfsprocessen en mens-AI-interfaces.

De nieuwe bijdrage van IBM zou nog een extra laag kunnen toevoegen aan het begrijpen en aanpakken van vooroordelen.

Oneerlijkheid kan worden weerspiegeld in een gebrek aan diversiteit in hoeveelheden gegevens waarop algoritmen zijn getraind.

Een CNBC-rapport merkte op dat "de samenstelling van de technologie-industrie die deze algoritmen maakt niet perfect was." Silicon Valley heeft een lange geschiedenis van kritiek vanwege zijn gebrek aan diversiteit.

Kay Firth-Butterfield, hoofd AI en machine learning bij het World Economic Forum, werd geciteerd door CNBC.

"Als we het hebben over vooringenomenheid, we maken ons allereerst zorgen over de focus van de mensen die de algoritmen maken, "Zei Firth-Butterfield. "We moeten de industrie in het Westen veel diverser maken."

Een postdoctorale student aan het Massachusetts Institute of Technology in 2016 had ontdekt dat "gezichtsherkenning haar gezicht alleen zag als ze een wit masker droeg, ’ zei Kleinmans.

Wat is het volgende? "IBM Services zal samenwerken met bedrijven om hen te helpen de nieuwe service te gebruiken. IBM Research zal een toolkit vrijgeven aan de open source-gemeenschap, " zei Alfa zoeken . ZDNet had meer details om te delen over deze toolkit. IBM zal "bias-detectietools" van IBM Research openen via een "AI Fairness 360-toolkit". Verwacht een bibliotheek met algoritmen te zien, code en tutorials.

ZDNet 's Larry Dignan:"De hoop is dat academici, onderzoekers en datawetenschappers zullen biasdetectie in hun modellen integreren."

Wie zich meer in zo'n toolkit wil verdiepen, kan de tools van IBM op Github eens bekijken.

© 2018 Tech Xplore