science >> Wetenschap >  >> Elektronica

Ethische algoritmen

Duke Computer Science en ECE-professor Cynthia Rudin. Krediet:Duke University

Alleen al in de VS kwamen vorig jaar bijna veertigduizend mensen om het leven bij auto-ongelukken. We kunnen alleen maar aannemen dat veel van die dodelijke slachtoffers te wijten waren aan onze unieke menselijke zwakheden:afgeleid autorijden, rijden onder invloed, of gewoon onervarenheid. Het is logisch om menselijke bestuurders zo snel mogelijk van de weg te krijgen, en laat machines het rijden doen.

Dat is een argument, hoe dan ook. Er is ook een overtuigend argument om te stoppen en na te denken over de ethische kwesties die deze nieuwe technologie aan de oppervlakte brengt. Of het nu gaat om zelfrijdende auto's of een app voor het delen van selfies met twijfelachtige privacybeschermingen, de haast om innovaties op de markt te brengen werpt vaak ethische overwegingen opzij - maar verschillende Duke ECE-hoogleraren duwen terug.

Duke ECE-professor Missy Cummings is een voormalig gevechtspiloot van de marine die nu het Humans and Autonomy Lab leidt, of HAL. Haar onderzoek richt zich op het maximaliseren van de samenwerking tussen mens en machine voor optimale prestaties en resultaten, en ze is een uitgesproken 'techno-realist' als het gaat om het idee dat we bijna klaar zijn voor zeer autonome auto's om de weg op te gaan.

"Auto's zonder bestuurder kunnen het aantal verkeersdoden drastisch verminderen, maar momenteel, computer vision-systemen op deze auto's zijn extreem broos, en niet klaar om zonder toezicht te rijden, "zei Cummings. "We weten dat lange schaduwen, lage zon hoeken, en zelfs een halve centimeter sneeuw kan ervoor zorgen dat deze systemen falen, soms op catastrofale manieren, dus we zijn nog 10 of meer jaar verwijderd van het bereiken van volledige capaciteiten zonder bestuurder."

Fabrikanten hebben tot nu toe ongeveer $ 80 miljard uitgegeven aan onderzoek en ontwikkeling van autonome voertuigen. De omvang van die investering gaat gepaard met een even grote druk; de investeringen moeten renderen, en er is een duidelijke interesse om de technologie naar een enthousiaste markt te brengen. Nog, de tekortkomingen van de huidige AV-systemen zijn goed gedocumenteerd. Ze zijn kwetsbaar voor hackers. Ze zijn niet goed in taken van gevolgtrekking, bijvoorbeeld, wetende dat een bal die de weg oprolt waarschijnlijk gevolgd zal worden door een kind dat hem achtervolgt. Dit soort kennis- en vaardigheidsfouten, merkte Cummings op, zou ertoe leiden dat een menselijke bestuurder zakt voor een rijbewijstest, maar er bestaat momenteel geen gelijkwaardige "computervisie" -test die het redeneervermogen van auto's zonder bestuurder onderzoekt.

Ondanks de twijfelachtige mogelijkheden van autonome systemen en het gebrek aan processen voor het testen en certificeren van zeer autonome voertuigen, echter, ze zijn al onze wegen ingeslagen - in wat in wezen grootschalige experimenten zijn waarbij het publiek zonder zijn uitdrukkelijke toestemming betrokken is.

Cummings zei dat het willen bereiken van volledig autonome voertuigen noodzakelijk is om de incrementele verbeteringen aan te brengen die ons daar zullen brengen, eventueel. Maar de technologie de wereld in duwen voordat het effectief kan worden gereguleerd, ze waarschuwde, is zowel onverantwoord als gevaarlijk.

Het is een probleem dat veel verder reikt dan de AV-sector.

Professor Cynthia Rudin leidt Duke's Prediction and Analysis Lab, en ze is een expert op het gebied van machine learning, in het bijzonder ze is een expert in het bouwen van interpreteerbare algoritmen voor machine learning, in een wereld die steeds meer geobsedeerd raakt door black box-modellen.

"Een voorspellend black box-model is een model dat te ingewikkeld is voor een mens om te begrijpen, of een formule die eigendom is, wat betekent dat het verborgen is door een bedrijf, " zei Rudin. Black box-algoritmen worden vaak gebruikt in toepassingen met een lage inzet, zoals de detailhandel, waar uw leeftijd, inkomen, bezigheid, aankoop geschiedenis, en honderd andere stukjes gegevens bepalen de beslissing om u een advertentie voor vliegtickets of vitamines te laten zien.

Meer problematisch zijn black box-modellen die worden gebruikt bij beslissingen met hoge inzetten, zoals het evalueren van kredietrisico en het instellen van voorwaardelijke vrijlating. Die beslissingen kunnen het leven van mensen ingrijpend beïnvloeden, benadrukte Rudin, en het is moeilijk voor iemand aan wie voorwaardelijke vrijlating is geweigerd om de beslissing aan te vechten als het onmogelijk is om te zien hoe de beslissing tot stand is gekomen.

Rudin's lab is gespecialiseerd in het ontwikkelen van eenvoudige, interpreteerbare modellen die nauwkeuriger zijn dan de black box-modellen die momenteel door het rechtssysteem worden gebruikt. Volgens Rudin, je hebt niet eens een rekenmachine nodig om ze te berekenen.

"Er is een soort van wijdverbreide overtuiging dat, omdat een model een zwarte doos is, het is nauwkeuriger, "zei Rudin. "En dat, voor zover ik kan zeggen, is verkeerd. Ik heb aan veel verschillende toepassingen gewerkt - in de medische zorg, qua energie, bij kredietrisico, in strafrechtelijke recidive - en we hebben nog nooit een toepassing gevonden waar we echt een zwarte doos nodig hebben. We kunnen altijd een interpreteerbaar model gebruiken voor een beslissingsprobleem met hoge inzetten."

Het enthousiasme voor black box-modellen, zei Rudin, moet worden getemperd door een zorgvuldige afweging van de mogelijke gevolgen.

"Vaak leidt de academische gemeenschap computerwetenschappers niet op in de juiste onderwerpen, "zei Rudin. "We trainen ze niet in basisstatistieken, bijvoorbeeld. We trainen ze niet in ethiek. Dus ontwikkelen ze deze technologie zonder zich zorgen te maken over waar het voor wordt gebruikt. En dat is een probleem."

Dit jaar, Duke Engineering heeft het Lane Family Ethics in Technology-programma opgericht, die ethiekonderwijs zal verankeren in de curricula van engineering en informatica. Het programma ondersteunt door de faculteit geleide cursusinhoud, buitenschoolse activiteiten en een jaarlijks symposium gericht op ethiek in technologie.

Stacy Tantum, de Bell-Rhodes universitair hoofddocent van de praktijk van elektrische en computertechniek, zal dit najaar een van de eerste cursussen van het programma leiden. Tantum werkt samen met Amber Díaz Pearson, een onderzoeker bij Duke's Kenan Institute for Ethics, om op ethiek gerichte modules te integreren in ECE 580, Introduction to Machine Learning.

Three elements of ethical algorithm development will be emphasized in the course, said Tantum. First is transparency, or why others should be able to easily evaluate all aspects of algorithm design, from the input training data and algorithmic assumptions, to the selection of algorithmic parameters, to the process by which predicted performance is evaluated. Second is algorithmic bias—the conditions that are likely to result in bias, but which are often overlooked, or deemed unimportant. And third is unintended use-cases of algorithms—the potential pitfalls of re-purposing algorithms for use-cases other than those for which they were designed.

"Our goal is to lead students to incorporate ethical considerations as a natural part of algorithm development, not an afterthought to be considered only after an unintended or unanticipated consequence arises, " said Tantum.