science >> Wetenschap >  >> anders

De toekomst van kunstmatige intelligentie vereist de begeleiding van de sociologie

Tegoed:Unsplash/CC0 Publiek domein

In de race om andere bedrijven te overtreffen:het ontwerp van kunstmatige intelligentie (AI) mist een diep begrip van wat gegevens over mensen betekenen en hun relatie tot rechtvaardigheid. Twee sociologen van de Drexel University suggereren dat we meer aandacht moeten besteden aan de maatschappelijke impact van AI, omdat het vaker voorkomt dan ooit tevoren.

"De pandemie van het coronavirus heeft het gebruik van AI en automatisering om menselijke werknemers te vervangen, versneld. als onderdeel van de inspanning om de risico's verbonden aan persoonlijke interacties te minimaliseren, " zei Kelly Joyce, doctoraat, een professor aan de Hogeschool voor Kunsten en Wetenschappen en stichtend directeur van het Centrum voor Wetenschap, Technologie en Maatschappij bij Drexel. “We zien steeds vaker voorbeelden van algoritmen die bestaande ongelijkheden versterken. Als instellingen als onderwijs, gezondheidszorg, oorlogvoering, en werk adopteren deze systemen, we moeten deze ongelijkheid wegwerken."

In een nieuw gepubliceerd artikel in Socius , Joyce, Susan Bell, doctoraat, een professor aan de Hogeschool voor Kunsten en Wetenschappen, en collega's uiten hun bezorgdheid over de druk om de AI-ontwikkeling in de Verenigde Staten snel te versnellen zonder de trainings- en ontwikkelingspraktijken te versnellen die nodig zijn om ethische technologie te maken. De paper stelt een onderzoeksagenda voor een sociologie van AI voor.

"Het begrip van de sociologie van de relatie tussen menselijke gegevens en langdurige ongelijkheden is nodig om AI-systemen te maken die gelijkheid bevorderen, ’ legde Joyce uit.

Hoe definiëren we AI?

De term AI is op veel verschillende manieren gebruikt en vroege interpretaties associëren de term met software die in staat is om zelfstandig te leren en te handelen. Bijvoorbeeld, zelfrijdende auto's leren en identificeren routes en obstakels - net zoals robotstofzuigers de omtrek of indeling van een huis doen, en slimme assistenten (Alexa of Google Assistant) identificeren de tone of voice en voorkeuren van hun gebruiker.

"AI heeft een vloeiende definitie van reikwijdte die de aantrekkingskracht ervan helpt verklaren, "zei Joyce. "Het is uitgestrekt, maar niet-gespecificeerde betekenis stelt promotors in staat om toekomstgerichte, empirisch niet onderbouwd, promissory claims van de potentiële positieve maatschappelijke impact."

Joyce, Bell en collega's leggen uit dat in de afgelopen jaren, programmeergemeenschappen hebben zich grotendeels gericht op het ontwikkelen van machine learning (ML) als een vorm van AI. De term ML wordt onder onderzoekers vaker gebruikt dan de term AI, hoewel AI nog steeds de publieke term is die door bedrijven wordt gebruikt, instituten, en initiatieven. "ML benadrukt de training van computersystemen om te herkennen, soort, en resultaten voorspellen van analyse van bestaande datasets, ’ legde Joyce uit.

AI-beoefenaars, computer wetenschappers, datawetenschappers en ingenieurs zijn trainingssystemen om te herkennen, sorteer en voorspel resultaten van analyse van bestaande datasets. Mensen voeren bestaande gegevens in om AI-systemen te trainen om autonome beslissingen te nemen. Het probleem hier is dat AI-beoefenaars doorgaans niet begrijpen dat gegevens over mensen bijna altijd ook gegevens over ongelijkheid zijn.

"AI-beoefenaars zijn zich er misschien niet van bewust dat gegevens over X (bijv. Postcodes, gezondheidsdossiers, locatie van snelwegen) kunnen ook gegevens over Y zijn (bijv. klas, gender- of rassenongelijkheid, sociaaleconomische status), " zei Joyce, wie is de hoofdauteur van het papier. "Ze denken misschien, bijvoorbeeld, dat postcodes een neutraal gegeven zijn dat op gelijke wijze voor alle mensen geldt in plaats van te begrijpen dat postcodes vanwege segregatie vaak ook informatie geven over ras en klasse. Dit gebrek aan begrip heeft geleid tot een versnelling en intensivering van ongelijkheden naarmate ML-systemen worden ontwikkeld en ingezet."

"Het identificeren van correlaties tussen kwetsbare groepen en levenskansen, AI-systemen accepteren deze correlaties als oorzakelijk verband, en gebruik ze om beslissingen te nemen over toekomstige interventies. Op deze manier, AI-systemen creëren geen nieuwe toekomst, maar repliceren eerder de duurzame ongelijkheden die bestaan ​​in een bepaalde sociale wereld, ", legt Joyce uit.

Wordt AI in gevaar gebracht door systemisch racisme en menselijke vooroordelen?

Er is politiek gebonden aan algoritmen, gegevens en codes. Denk aan de zoekmachine Google. Hoewel de zoekresultaten van Google neutraal of enkelvoudig kunnen lijken, De zoekmachine van Google bootst het seksisme en racisme van alledag na.

"Zoekresultaten weerspiegelen de beslissingen die nodig zijn om de algoritmen en codes te maken, en deze weerspiegelen het standpunt van Google-medewerkers, " legt Bell uit. "Specifiek, hun beslissingen over wat ze als seksistisch of racistisch moeten bestempelen, weerspiegelen de bredere sociale structuren van alomtegenwoordig racisme en seksisme. Beurtelings, beslissingen over wat te bestempelen als seksistisch of racistisch 'traint' een ML-systeem. Hoewel Google gebruikers de schuld geeft van het bijdragen aan seksistische en racistische zoekresultaten, de bron ligt in de 'input'."

Bell wijst erop dat "in tegenstelling tot de waargenomen neutraliteit van de zoekresultaten van Google, maatschappelijke onderdrukking en ongelijkheid zijn erin ingebed en worden erdoor versterkt."

Een ander voorbeeld waar de auteurs op wijzen, zijn AI-systemen die gegevens uit elektronische patiëntendossiers (EPD's) gebruiken om voorspellingen te doen over geschikte behandelingsaanbevelingen. Hoewel computerwetenschappers en ingenieurs vaak rekening houden met privacy bij het ontwerpen van AI-systemen, het begrijpen van de multivalente dimensies van menselijke gegevens maakt doorgaans geen deel uit van hun opleiding. Dit gegeven, ze mogen aannemen dat EPD-gegevens objectieve kennis over behandeling en uitkomsten vertegenwoordigen, in plaats van het te bekijken door een sociologische lens die herkent hoe EPD-gegevens gedeeltelijk en gesitueerd zijn.

"Als je een sociologische benadering gebruikt, "Joyce legt uit, "U begrijpt dat patiëntresultaten niet neutraal of objectief zijn - deze zijn gerelateerd aan de sociaaleconomische status van de patiënt, en vertellen ons vaak meer over klassenverschillen, racisme en andere vormen van ongelijkheden dan de effectiviteit van bepaalde behandelingen."

De paper vermeldt voorbeelden zoals een algoritme dat aanraadde dat zwarte patiënten minder gezondheidszorg krijgen dan blanke patiënten met dezelfde aandoeningen en een rapport dat aantoont dat gezichtsherkenningssoftware minder snel mensen van kleur herkent en vrouwen toonde aan dat AI bestaande ongelijkheden kan versterken.

"Een sociologisch begrip van data is belangrijk, aangezien een onkritisch gebruik van menselijke gegevens in sociotechnische AI-systemen de neiging zal hebben om te reproduceren, en misschien zelfs verergeren, bestaande sociale ongelijkheden, ", aldus Bell. "Hoewel bedrijven die AI-systemen produceren zich verschuilen achter de bewering dat algoritmen of platformgebruikers racistische, seksistische uitkomsten, sociologische wetenschap illustreert hoe menselijke besluitvorming plaatsvindt bij elke stap van het coderingsproces."

In de krant, de onderzoekers tonen aan dat sociologische wetenschap kan worden gecombineerd met ander kritisch sociaalwetenschappelijk onderzoek om enkele van de valkuilen van AI-toepassingen te vermijden. "Door het ontwerp en de implementatie van sociotechnische AI-systemen te onderzoeken, sociologisch werk brengt menselijke arbeid en sociale contexten in beeld, " zei Joyce. Voortbouwend op de erkenning door de sociologie van het belang van organisatorische contexten bij het vormgeven van resultaten, de paper laat zien dat zowel financieringsbronnen als institutionele contexten de belangrijkste drijfveren zijn voor de manier waarop AI-systemen worden ontwikkeld en gebruikt.

Heeft AI de begeleiding van de sociologie nodig? Onderzoekers zeggen ja.

Joyce, Bell en collega's suggereren dat, ondanks goedbedoelde pogingen om kennis over sociale werelden op te nemen in sociotechnische systemen, AI-wetenschappers blijven een beperkt begrip van het sociale aantonen - prioriteit geven aan datgene wat instrumenteel kan zijn voor de uitvoering van AI-engineeringtaken, maar het uitwissen van de complexiteit en de verankering van sociale ongelijkheden.

"De diep structurele benadering van de sociologie staat ook in contrast met benaderingen die individuele keuze benadrukken, " zei Joyce. "Een van de meest doordringende stijlfiguren van politiek liberalisme is dat sociale verandering wordt aangedreven door individuele keuze. Als individuen, de logica gaat, we kunnen een meer rechtvaardige toekomst creëren door betere producten te maken en te kiezen, praktijken, en politieke vertegenwoordigers. De technische wereld heeft de neiging om een ​​soortgelijk individualistisch perspectief te behouden wanneer de ingenieurs en ethici de nadruk leggen op het elimineren van menselijke vooroordelen op individueel niveau en het verbeteren van gevoeligheidstraining als een manier om ongelijkheid in AI-systemen aan te pakken."

Joyce, Bell en collega's nodigen sociologen uit om de theoretische en methodologische hulpmiddelen van de discipline te gebruiken om te analyseren wanneer en hoe ongelijkheden duurzamer worden gemaakt door AI-systemen. De onderzoekers benadrukken dat het creëren van sociotechnische AI-systemen niet alleen een kwestie van technologisch ontwerp is, maar roept ook fundamentele vragen op over macht en sociale orde.

"Sociologen zijn opgeleid om te identificeren hoe ongelijkheden zijn ingebed in alle aspecten van de samenleving en om te wijzen op wegen voor structurele sociale verandering. Daarom, sociologen moeten een leidende rol spelen bij het bedenken en vormgeven van AI-toekomsten, ' zei Joyce.