Wetenschap
Macht over zaken, democratie en onderwijs zullen waarschijnlijk blijven liggen bij data en data-afhankelijke tools, zoals machine learning en kunstmatige intelligentie. Krediet:Shutterstock
Als het recente Cambridge Analytica-gegevensschandaal ons iets heeft geleerd, het is dat de ethische culturen van onze grootste technologiebedrijven strenger gecontroleerd moeten worden.
Maar morele vragen over welke gegevens moeten worden verzameld en hoe deze moeten worden gebruikt, zijn slechts het begin. Ze roepen bredere vragen op over wie die beslissingen in de eerste plaats mag nemen.
We hebben momenteel een systeem waarin de macht over het oordeelkundige en ethische gebruik van gegevens overweldigend geconcentreerd is bij blanke mannen. Onderzoek toont aan dat de onbewuste vooroordelen die voortkomen uit iemands opvoeding en ervaringen kunnen worden ingebakken in technologie, met negatieve gevolgen voor minderheidsgroepen.
Deze vooroordelen zijn moeilijk af te werpen, waardoor diversiteit op de werkplek een krachtig en noodzakelijk instrument is om onvermoede vooroordelen op te vangen voordat deze de kans krijgen om schade aan te richten. Naarmate de impact van datagestuurde algoritmen en beslissingen groter wordt, we moeten ons afvragen:hoe gaat dit in de toekomst veranderen?
Helaas, de indicatoren suggereren dat het antwoord is:niet veel.
Over welke consequenties hebben we het?
Algoritmische vooringenomenheid is nu een veel bestudeerd probleem dat verwijst naar hoe menselijke vooroordelen sluipen in de beslissingen die door computers worden genomen.
Het probleem heeft geleid tot genderspecifieke vertalingen, bevooroordeelde aanbevelingen voor strafrechtelijke veroordelingen, en raciaal scheve gezichtsherkenningssystemen.
Bijvoorbeeld, wanneer een geautomatiseerde vertaaltool zoals Google Translate nodig is om een genderneutrale taal (zoals Turks) te vertalen in een genderspecifieke taal (zoals Engels), maakt het een gok welk geslacht moet worden toegewezen aan de vertaalde tekst.
Het viel mensen op dat Google Translate de neiging vertoonde om vrouwelijke geslachtsvoornaamwoorden toe te kennen aan bepaalde banen en mannelijke voornaamwoorden aan anderen - "zij is een babysitter" of "hij is een dokter" - op een manier die naar seksisme riekt. Google Translate baseert zijn beslissing over welk geslacht aan een bepaalde baan moet worden toegewezen op de trainingsgegevens waaruit het leert. In dit geval, het pikt de gendervooroordelen op die al in de wereld bestaan en geeft die aan ons terug.
Als we ervoor willen zorgen dat algoritmen de bestaande vooroordelen niet in stand houden en versterken, we moeten voorzichtig zijn met de gegevens die we gebruiken om algoritmen te trainen. Maar als we van mening zijn dat vrouwen vaker babysitters zijn en mannen vaker dokter, dan merken we misschien niet eens - en corrigeren we voor - vooringenomen gegevens in de tools die we bouwen.
Het maakt dus uit wie de code schrijft, omdat de code het algoritme definieert, die oordeelt op basis van de gegevens.
Wie heeft de macht?
Nog maar tien jaar geleden maakten de eerste smartphones indruk. Tegenwoordig zijn enkele van de machtigste mensen op aarde degenen die gegevens beheren die via mobiele technologieën zijn verzameld.
Data staat centraal in het functioneren van de moderne wereld. En macht over zaken, democratie en onderwijs zullen waarschijnlijk blijven liggen bij data en data-afhankelijke tools, zoals machine learning en kunstmatige intelligentie.
Momenteel, de mensen die de macht hebben om ethische beslissingen te nemen over het gebruik van gegevens zijn doorgaans blanke mannen met een hoog inkomen, goed opgeleide gezinnen.
Een onderzoeksbureau, Open microfoon, die zichzelf omschrijft als "investeren in raciale diversiteit in de technische wereld", beoordeelde gegevens van enkele van de grootste technologiebedrijven en vond een consistent patroon:onevenredige percentages blanke werknemers vergeleken met de bredere beroepsbevolking.
Het personeelsbestand van Adobe is voor 69% blank, Apple's is 56% wit, Google is 59% wit en Microsoft is 58% wit. De lijst gaat maar door:"Zwarte mensen, Latino's, en inheemse Amerikanen zijn 16 tot 18 procentpunten ondervertegenwoordigd in technologie in vergelijking met hun aanwezigheid in de Amerikaanse beroepsbevolking in het algemeen."
Dit wordt nog veel erger gemaakt door een verlammend gebrek aan genderdiversiteit.
In een Microsoft-rapport uit 2017 een onderzoek onder Britse IT- en technologieleiders wees uit dat gemiddeld de gendermix onder hun teams was 80% mannelijk en 20% vrouwelijk. Maar liefst 35% van de respondenten had geen plannen om deze onbalans te veranderen.
De cijfers zijn vergelijkbaar in Australië, volgens een onderzoek naar Australische professionele profielen op het sociale netwerk LinkedIn.
Daaruit bleek dat slechts 14% van de leidinggevende functies in de lokale technologie-industrie door vrouwen werd bekleed. Van de 435, 000 mensen in IT vermeld op LinkedIn in Australië, slechts 31% was vrouw. Zelfs deze cijfers kunnen optimistisch zijn, volgens de Australische hoofdwetenschapper, Alan Finkel, die opmerkte dat vrouwen minder dan een vijfde uitmaken van de Australiërs die gekwalificeerd zijn in de wetenschap, technologie, techniek en wiskunde.
Zal dit veranderen?
Degenen die waarschijnlijk de leiding hebben over de ontwikkeling van de algoritmen van de toekomst, zijn degenen die nu computerwetenschappen en wiskundige wetenschappen studeren. Helaas, de groepen die deze vakken domineren op scholen en universiteiten weerspiegelen grotendeels het huidige personeelsbestand.
Australische binnenlandse studenten die deelnamen aan informatietechnologie op tertiair niveau daalden van een piek van 46, 945 in 2002 tot 27, 547 in 2013. Hoewel de cijfers volgens AEN University Rankings licht zijn verbeterd, vrouwen in techniek en IT vertegenwoordigen nog steeds minder dan een op de vijf studenten.
In de tussentijd, het aantal meisjes in de bovenbouw van de middelbare school dat de geavanceerde informatica- en wiskundevakken volgt die nodig zijn om deze functies te vervullen, blijft resoluut laag.
Dit schip doet er lang over om te keren.
Wat kunnen we eraan doen?
Als de programmeurs van de toekomst de jongens uit de middenklasse van vandaag zijn, hoe bereiden we ze voor op het maken van onbevooroordeelde ethische keuzes wanneer ze de Zuckerbergs van morgen worden? En hoe kunnen we het schip zo sturen dat de rijkdom en macht die zullen blijven vloeien uit het beheersen van dergelijke technische vaardigheden niet wordt ontzegd aan degenen die niet blank en mannelijk zijn?
Ons onderwijssysteem laat jongens ongewild een opleiding volgen tot technische mensen zonder de vaardigheden om hun werk in een sociale context te plaatsen, en laat meisjes het omgekeerde doen.
Inderdaad, terwijl veel van de slimste jonge vrouwen ervoor kiezen geneeskunde of rechten te gaan studeren, deze beroepen zijn kwetsbaar voor de opmars van kunstmatige intelligentie – paralegals, radiologen, en degenen die voorlopige diagnoses stellen.
We zitten in een structuur waarin dezelfde oude onevenwichtigheden sterker worden en lijken te blijven bestaan. Maar dit is niet hoe het zou moeten zijn. Tenzij we de cultuur confronteren door grote verschuivingen in onderwijstrends, niks zal veranderen.
Dit artikel is oorspronkelijk gepubliceerd op The Conversation. Lees het originele artikel.
Wetenschap © https://nl.scienceaq.com