Wetenschap
Wanneer algoritmen beslissingen nemen met reële gevolgen, ze moeten eerlijk zijn. Krediet:R-Type/Shutterstock.com
Het gebruik van machines om menselijke activiteit te vergroten is niets nieuws. Egyptische hiërogliefen tonen het gebruik van paardenkoetsen zelfs vóór 300 voor Christus. Oude Indiase literatuur zoals "Silapadikaram" heeft dieren beschreven die worden gebruikt voor de landbouw. En een blik naar buiten laat zien dat mensen tegenwoordig gemotoriseerde voertuigen gebruiken om zich te verplaatsen.
Waar mensen in het verleden ons fysiek hebben vergroot, nu is de aard van augmentatie ook intelligenter. Opnieuw, je hoeft alleen maar naar auto's te kijken - ingenieurs lijken aan de vooravond van zelfrijdende auto's die worden geleid door kunstmatige intelligentie. Andere apparaten bevinden zich in verschillende stadia om intelligenter te worden. Onderweg, interacties tussen mens en machine veranderen.
Machine- en menselijke intelligenties brengen verschillende sterke punten naar de tafel. Onderzoekers zoals ik proberen te begrijpen hoe algoritmen menselijke vaardigheden kunnen aanvullen en tegelijkertijd de aansprakelijkheid van het vertrouwen op machine-intelligentie kunnen minimaliseren. Als expert op het gebied van machine learning, Ik voorspel dat er binnenkort een nieuw evenwicht zal zijn tussen menselijke en machine-intelligentie, een verschuiving die de mensheid nog niet eerder is tegengekomen.
Dergelijke veranderingen roepen vaak angst op voor het onbekende, en in dit geval een van de onbekenden is hoe machines beslissingen nemen. Dit is vooral het geval als het om eerlijkheid gaat. Kunnen machines eerlijk zijn op een manier die mensen begrijpen?
Als mensen onlogisch zijn
voor mensen, eerlijkheid is vaak de kern van een goede beslissing. Besluitvorming is meestal afhankelijk van zowel de emotionele als de rationele centra van onze hersenen, wat Nobelprijswinnaar Daniel Kahneman Systeem 1- en Systeem 2-denken noemt. Beslistheoretici geloven dat de emotionele centra van de hersenen door de eeuwen heen behoorlijk goed zijn ontwikkeld, terwijl hersengebieden die betrokken zijn bij rationeel of logisch denken meer recentelijk zijn geëvolueerd. Het rationele en logische deel van de hersenen, wat Kahneman Systeem 2 noemt, heeft de mens een voordeel ten opzichte van andere soorten gegeven.
Echter, omdat Systeem 2 recenter is ontwikkeld, menselijke besluitvorming is vaak gebrekkig. Daarom zijn veel beslissingen onlogisch, inconsistent en suboptimaal.
Bijvoorbeeld, voorkeursomkering is een bekend maar onlogisch fenomeen dat mensen vertonen:daarin, iemand die de voorkeur geeft aan keuze A boven B en B boven C, geeft niet per se de voorkeur aan A boven C. Of bedenk dat onderzoekers hebben ontdekt dat rechters van de strafrechter over het algemeen soepeler zijn bij het nemen van voorwaardelijke vrijlatingsbeslissingen direct na de lunchpauze dan aan het einde van de dag.
Een deel van het probleem is dat onze hersenen moeite hebben om kansen precies te berekenen zonder de juiste training. We gebruiken vaak irrelevante informatie of worden beïnvloed door externe factoren. Dit is waar machine-intelligentie nuttig kan zijn.
Machines zijn logisch … tot een fout
Goed ontworpen machine-intelligentie kan consistent en nuttig zijn bij het nemen van optimale beslissingen. Door hun aard, ze kunnen in wiskundige zin logisch zijn - ze wijken gewoon niet af van de instructies van het programma. In een goed ontworpen machine learning-algoritme, men zou niet de onlogische omkeringen van voorkeuren tegenkomen die mensen vaak vertonen, bijvoorbeeld. Binnen de marge van statistische fouten, de beslissingen van machine-intelligentie zijn consistent.
Het probleem is dat machine-intelligentie niet altijd goed is ontworpen.
Naarmate algoritmen krachtiger worden en in meer delen van het leven worden opgenomen, wetenschappers zoals ik verwachten deze nieuwe wereld, een met een ander evenwicht tussen machine en menselijke intelligentie, de norm van de toekomst te zijn.
In het strafrechtelijk systeem, rechters gebruiken algoritmen bij voorwaardelijke vrijlatingsbeslissingen om recidiverisico's te berekenen. In theorie, deze praktijk zou elke vooringenomenheid kunnen overwinnen die wordt veroorzaakt door lunchpauzes of uitputting aan het eind van de dag. Maar toen journalisten van ProPublica een onderzoek voerden, ze vonden deze algoritmen oneerlijk:blanke mannen met eerdere veroordelingen voor gewapende overvallen werden beoordeeld als een lager risico dan Afro-Amerikaanse vrouwen die waren veroordeeld voor misdrijven.
Er zijn nog veel meer van dergelijke voorbeelden van machine learning-algoritmen die later oneerlijk werden bevonden, inclusief Amazon en zijn werving en Google's beeldlabels.
Onderzoekers zijn zich bewust van deze problemen en hebben er vanaf het begin aan gewerkt om beperkingen op te leggen die eerlijkheid garanderen. Bijvoorbeeld, een algoritme genaamd CB (kleurenblind) legt de beperking op dat alle discriminerende variabelen, zoals ras of geslacht, mag niet worden gebruikt bij het voorspellen van de resultaten. Een ander, genaamd DP (demografische pariteit), zorgt ervoor dat groepen proportioneel eerlijk zijn. Met andere woorden, het deel van de groep dat een positief resultaat ontvangt, is gelijk of redelijk voor zowel de discriminerende als de niet-discriminerende groepen.
Onderzoekers en beleidsmakers beginnen het stokje over te nemen. IBM heeft veel van hun algoritmen open source gemaakt en vrijgegeven onder de banner "AI Fairness 360". En de National Science Foundation accepteerde onlangs voorstellen van wetenschappers die de onderzoeksbasis willen versterken die ten grondslag ligt aan eerlijkheid in AI.
De eerlijkheid van beslissingen van machines verbeteren
Ik geloof dat bestaande algoritmen voor eerlijke machines in veel opzichten zwak zijn. Deze zwakte komt vaak voort uit de criteria die worden gebruikt om eerlijkheid te waarborgen. De meeste algoritmen die "billijkheidsbeperking" opleggen, zoals demografische pariteit (DP) en kleurenblindheid (CB), zijn gericht op het waarborgen van eerlijkheid op uitkomstniveau. Als er twee mensen zijn uit verschillende subpopulaties, de opgelegde beperkingen zorgen ervoor dat de uitkomst van hun beslissingen consistent is in alle groepen.
Hoewel dit een goede eerste stap is, onderzoekers moeten verder kijken dan alleen de uitkomsten en zich ook op het proces concentreren. Bijvoorbeeld, wanneer een algoritme wordt gebruikt, de subpopulaties die worden getroffen, zullen hun inspanningen als reactie daarop natuurlijk veranderen. Met die veranderingen moet rekening worden gehouden, te. Omdat er geen rekening mee is gehouden, mijn collega's en ik concentreren ons op wat we 'beste respons eerlijkheid' noemen.
Als de subpopulaties inherent vergelijkbaar zijn, hun inspanningsniveau om hetzelfde resultaat te bereiken, moet ook hetzelfde zijn, zelfs nadat het algoritme is geïmplementeerd. Aan deze eenvoudige definitie van de beste respons eerlijkheid wordt niet voldaan door op DP en CB gebaseerde algoritmen. Bijvoorbeeld, DP vereist dat de positieve percentages gelijk zijn, zelfs als een van de subpopulaties geen moeite doet. Met andere woorden, mensen in één subpopulatie zouden aanzienlijk harder moeten werken om hetzelfde resultaat te bereiken. Hoewel een op DP gebaseerd algoritme het als eerlijk zou beschouwen, beide subpopulaties bereikten hetzelfde resultaat - de meeste mensen niet.
Er is nog een billijkheidsbeperking die bekend staat als 'equalized odds' (EO) en die voldoet aan het begrip 'best response fairness' - het zorgt voor eerlijkheid, zelfs als je rekening houdt met de respons van de subpopulaties. Echter, om de beperking op te leggen, het algoritme moet de onderscheidende variabelen kennen (zeg, zwart wit), en het zal uiteindelijk expliciet verschillende drempels instellen voor subpopulaties, dus de drempels zullen expliciet verschillend zijn voor blanke en zwarte paroolkandidaten.
Hoewel dat zou helpen om de eerlijkheid van de resultaten te vergroten, een dergelijke procedure kan in strijd zijn met de notie van gelijke behandeling vereist door de Civil Rights Act van 1964. Om deze reden, een artikel in California Law Review heeft beleidsmakers aangespoord om de wetgeving aan te passen, zodat eerlijke algoritmen die deze benadering gebruiken kunnen worden gebruikt zonder mogelijke juridische gevolgen.
Deze beperkingen motiveren mijn collega's en mij om een algoritme te ontwikkelen dat niet alleen "best response fair" is, maar ook niet expliciet discriminerende variabelen gebruikt. We demonstreren de prestaties van onze algoritmen theoretisch met behulp van gesimuleerde datasets en echte voorbeelddatasets van internet. Toen we onze algoritmen testten met de veelgebruikte voorbeelddatasets, we waren verbaasd over hoe goed ze presteerden in vergelijking met open-source algoritmen die door IBM waren samengesteld.
Ons werk suggereert dat, ondanks de uitdagingen, machines en algoritmen zullen nuttig blijven voor mensen, zowel voor fysieke banen als voor kennisbanen. We moeten waakzaam blijven dat alle beslissingen die door algoritmen worden genomen eerlijk zijn, en het is absoluut noodzakelijk dat iedereen zijn beperkingen begrijpt. Als we dat kunnen, dan is het mogelijk dat mens- en machine-intelligentie elkaar op waardevolle manieren aanvullen.
Dit artikel is opnieuw gepubliceerd vanuit The Conversation onder een Creative Commons-licentie. Lees het originele artikel.
Wetenschap © https://nl.scienceaq.com