Wetenschap
Krediet:Sigismund von Dobschütz/Wikimedia Commons, CC BY-SA 3.0
Onderzoekers van de Universiteit van Toronto en de Universiteit van Cambridge onderzoeken de manieren waarop leeftijdsdiscriminatie - vooroordelen tegen individuen op basis van leeftijd - kan worden gecodeerd in technologieën zoals kunstmatige intelligentie, waar velen van ons nu dagelijks mee te maken hebben.
Deze leeftijdsgebonden vooringenomenheid bij AI, ook wel 'digital ageism' genoemd, wordt onderzocht in een nieuw artikel onder leiding van Charlene Chu, een gelieerde wetenschapper aan de KITE-onderzoeksafdeling van het Toronto Rehabilitation Institute, onderdeel van het University Health Network (UHN), en een assistent-professor aan de Lawrence S. Bloomberg Faculty of Nursing.
Het artikel is onlangs gepubliceerd in The Gerontologist .
"De COVID-19-pandemie heeft ons bewust gemaakt van hoe afhankelijk onze samenleving is van technologie", zegt Chu. "Enorme aantallen oudere volwassenen wenden zich in hun dagelijks leven tot technologie, wat voor onderzoekers een gevoel van urgentie heeft gecreëerd om te proberen het digitale leeftijdsdom te begrijpen, en de risico's en schade die gepaard gaan met AI-vooroordelen."
Chu en haar onderzoeksteam, bestaande uit rechtsgeleerden, computerwetenschappers, filosofen en sociale wetenschappers in bio-ethiek en gerontologie, merken op dat stereotypen diep geworteld zijn in AI-algoritmen, waarbij recent onderzoek zich richt op voorbeelden van raciale en gendergebaseerde vooroordelen. Oplossingen om AI-bias aan te pakken zijn echter niet eenvoudig, zegt Chu. Zij en haar team suggereren dat er reeksen van "cycli van onrecht" zijn die zich voordoen in de ontwikkeling van technologie, van ontwerp in een vroeg stadium tot testen en implementatie.
"In totaal produceren deze cycli een impliciete vooringenomenheid die is ingebakken in de functie van de technologie, waardoor oudere volwassenen op een onevenredige manier worden uitgesloten", zegt ze.
Rebecca Biason van Bloomberg Nursing sprak onlangs met Chu over haar werk en de implicaties van digitaal leeftijdsdiscriminatie voor oudere volwassenen.
Hoe kunnen technologie of apps het digitale tijdperk in stand houden?
Er zijn verschillende manieren waarop AI-aangedreven technologie leeftijdsgebonden vooroordelen kan aannemen - sommige zijn meer voor de hand liggend dan andere. De meeste apps die voor oudere volwassenen zijn gemaakt, zijn meestal gericht op chronische ziekten en gezondheidszorg, en worden zelden geassocieerd met plezier of vrije tijd. In plaats daarvan heeft technologie die is gemaakt voor oudere volwassenen de neiging om ze met een biomedische lens te bekijken, waardoor technologie wordt gegenereerd die is gericht op een gezondheidsgerelateerde behoefte.
Deze leeftijdsgebonden representatie van oudere volwassenen sijpelt door in het ontwerp van technologie. Normale aspecten van veroudering, zoals verschillen in motorische functie of perceptie, worden buiten beschouwing gelaten. Dit is een van de 'cycli van onrecht' die leeftijdsgebonden vooroordelen in stand houdt, zoals beschreven in mijn paper die de uitsluiting van de stemmen en gegevens van oudere volwassenen ondersteunt.
Hoe draagt de uitsluiting van oudere volwassenen bij aan digitaal leeftijdsdiscriminatie?
De gegevens die worden gebruikt om verschillende modellen en algoritmen te bouwen, hebben vervolgens invloed op de prestaties van het algoritme. Specifiek voor leeftijdsgebonden vooroordelen zijn oudere volwassenen de snelst groeiende groep mensen die technologie gebruiken, maar veel van de gegevens die worden gebruikt om AI-systemen te bouwen, zijn gebaseerd op jongere mensen. Dit genereert op zijn beurt apps en technologieën die niet zijn ontworpen voor oudere volwassenen, dus ze gebruiken ze niet.
Deze mismatch in ontwerp en technologie draagt bij aan een gebrek aan gegevens van oudere volwassenen, wat hun uitsluiting in de pijplijn van technologiecreatie versterkt.
Leeftijdsdiscriminatie is de meest sociaal geaccepteerde vooroordeel, ondanks het feit dat het voor ons allemaal een mogelijkheid is. Naarmate de demografie van de bevolking begint te verschuiven, zullen steeds meer oudere volwassenen zich tot technologie wenden die niet voor hen is ontworpen.
Een deel van ons toekomstige werk is om effectief te illustreren hoe ingebed leeftijdsdiscriminatie is binnen AI en technologieontwikkeling en manieren aan te reiken om dat te verminderen.
Wat zijn enkele van uw eerste aanbevelingen voor het aanpakken van digitaal leeftijdsdiscriminatie voor oudere volwassenen?
Bewustwording over digitaal leeftijdsdiscriminatie is de eerste stap - en is van cruciaal belang om vooruit te komen. Leeftijd kruist met andere dimensies van kwetsbaarheid en moet worden aangepakt. Een structurele aanbeveling is om de behoefte aan interdisciplinair co-design te bespreken - dat wil zeggen oudere volwassenen vanaf het begin en niet aan het eind betrekken bij technologieontwerp, en datasets die meer representatief zijn voor oudere volwassenen.
Een van de dingen die mijn team deed, was de wereldwijde inventaris van de AI-ethiekrichtlijnen doorzoeken, een opslagplaats die aanbevelingsdocumenten verzamelt over hoe AI-systemen ethische geautomatiseerde besluitvorming kunnen uitvoeren. Veel van deze richtlijnen benadrukten eerlijkheid als een belangrijk ethisch principe, evenals de noodzaak om vooringenomenheid te verminderen. Van deze bijna 150 documenten die zijn gemaakt door gevestigde organisaties, regeringen en internationale groepen, vonden we heel weinig vermelding van leeftijd, leeftijdsvooroordelen of leeftijdsdiscriminatie in vergelijking met raciale of seksgerelateerde vooroordelen.
Nu probeert mijn team de maatschappelijke en ethische implicaties vast te stellen, evenals de mate van schade die momenteel wordt aangericht met betrekking tot digitaal leeftijdsdiscriminatie. Het werk is van fundamenteel belang om de aandacht op dit probleem te vestigen terwijl we het probleem wilden definiëren.
Wetenschap © https://nl.scienceaq.com