Wetenschap
Weet u wat er gebeurt als u uw gegevens deelt? Krediet:mtkang/shutterstock.com
Elk aspect van het leven kan worden geleid door kunstmatige intelligentie-algoritmen - van het kiezen van de route voor uw woon-werkverkeer, om te beslissen met wie je op date gaat, tot complexe juridische en justitiële zaken, zoals predictive policing.
Grote technologiebedrijven zoals Google en Facebook gebruiken AI om inzicht te krijgen in hun gigantische schat aan gedetailleerde klantgegevens. Hierdoor kunnen ze inkomsten genereren met de collectieve voorkeuren van gebruikers door middel van praktijken zoals microtargeting, een strategie die door adverteerders wordt gebruikt om specifieke groepen gebruikers nauwkeurig te targeten.
parallel, veel mensen vertrouwen nu meer op platforms en algoritmen dan op hun eigen regeringen en het maatschappelijk middenveld. Een onderzoek uit oktober 2018 suggereerde dat mensen "waardering van het algoritme, " in de mate dat ze meer op advies zouden vertrouwen als ze denken dat het van een algoritme komt dan van een mens.
Vroeger, technologie-experts maken zich zorgen over een "digitale kloof" tussen degenen die toegang hebben tot computers en internet en degenen die dat niet kunnen. Huishoudens die minder toegang hebben tot digitale technologieën zijn benadeeld in hun vermogen om geld te verdienen en vaardigheden op te doen.
Maar, naarmate digitale apparaten zich verspreiden, de kloof gaat niet langer alleen over toegang. Hoe gaan mensen om met een overdaad aan informatie en de overvloed aan algoritmische beslissingen die elk aspect van hun leven doordringen?
De slimmere gebruikers navigeren weg van apparaten en worden zich bewust van hoe algoritmen hun leven beïnvloeden. In de tussentijd, consumenten die minder informatie hebben, vertrouwen nog meer op algoritmen om hun beslissingen te sturen.
De geheime saus achter kunstmatige intelligentie
De belangrijkste reden voor de nieuwe digitale kloof naar mijn mening als iemand die informatiesystemen bestudeert, is dat zo weinig mensen begrijpen hoe algoritmen werken. Voor een meerderheid van de gebruikers, algoritmen worden gezien als een zwarte doos.
AI-algoritmen nemen gegevens op, pas ze aan een wiskundig model en doe een voorspelling, variërend van welke liedjes je misschien leuk vindt tot hoeveel jaar iemand in de gevangenis zou moeten doorbrengen. Deze modellen zijn ontwikkeld en aangepast op basis van gegevens uit het verleden en het succes van eerdere modellen. De meeste mensen – soms zelfs de algoritmeontwerpers zelf – weten niet echt wat er in het model zit.
Onderzoekers maken zich al lang zorgen over algoritmische eerlijkheid. Bijvoorbeeld, De op AI gebaseerde wervingstool van Amazon bleek vrouwelijke kandidaten te ontslaan. Amazon's systeem extraheerde selectief impliciet gendergerelateerde woorden - woorden die mannen vaker gebruiken in alledaagse spraak, zoals 'uitgevoerd' en 'gevangen'.
Andere studies hebben aangetoond dat gerechtelijke algoritmen raciaal vooringenomen zijn, het veroordelen van arme zwarte beklaagden langer dan anderen.
Als onderdeel van de onlangs goedgekeurde Algemene Verordening Gegevensbescherming in de Europese Unie, mensen hebben "recht op uitleg" van de criteria die algoritmen gebruiken bij hun beslissingen. Deze wetgeving behandelt het proces van algoritmische besluitvorming als een receptenboek. De gedachte is dat als je het recept begrijpt, u kunt begrijpen hoe het algoritme uw leven beïnvloedt.
In de tussentijd, sommige AI-onderzoekers hebben aangedrongen op eerlijke algoritmen, verantwoord en transparant, ook interpreteerbaar, wat betekent dat ze tot hun beslissingen moeten komen via processen die mensen kunnen begrijpen en vertrouwen.
Moet je verbonden blijven - of loskoppelen? Krediet:pryzmat/shutterstock.com
Welk effect heeft transparantie? In een studie, studenten werden beoordeeld door een algoritme en boden verschillende niveaus van uitleg over hoe de scores van hun leeftijdsgenoten werden aangepast om tot een eindcijfer te komen. De studenten met meer transparante uitleg vertrouwden het algoritme eigenlijk minder. Dit, opnieuw, suggereert een digitale kloof:Algoritmisch bewustzijn leidt niet tot meer vertrouwen in het systeem.
Maar transparantie is geen wondermiddel. Zelfs wanneer het algehele proces van een algoritme wordt geschetst, de details kunnen nog steeds te complex zijn voor gebruikers om te begrijpen. Transparantie helpt alleen gebruikers die geavanceerd genoeg zijn om de fijne kneepjes van algoritmen te begrijpen.
Bijvoorbeeld, in 2014, Ben Bernanke, de voormalige voorzitter van de Federal Reserve, werd aanvankelijk geweigerd een hypotheek te herfinancieren door een geautomatiseerd systeem. De meeste mensen die een dergelijke hypotheekherfinanciering aanvragen, zouden niet begrijpen hoe algoritmen hun kredietwaardigheid kunnen bepalen.
Afmelden voor het nieuwe informatie-ecosysteem
Hoewel algoritmen zo veel van het leven van mensen beïnvloeden, slechts een klein deel van de deelnemers is geavanceerd genoeg om zich volledig bezig te houden met hoe algoritmen hun leven beïnvloeden.
Er zijn niet veel statistieken over het aantal mensen dat op de hoogte is van het algoritme. Studies hebben bewijs gevonden van algoritmische angst, wat leidt tot een diepe machtsongelijkheid tussen platforms die algoritmen inzetten en de gebruikers die ervan afhankelijk zijn.
Uit een onderzoek naar Facebook-gebruik bleek dat wanneer deelnemers op de hoogte werden gebracht van het Facebook-algoritme voor het beheren van nieuwsfeeds, ongeveer 83% van de deelnemers paste hun gedrag aan om te proberen te profiteren van het algoritme, terwijl ongeveer 10% hun gebruik van Facebook verminderde.
Uit een rapport van het Pew Research Center van november 2018 bleek dat een grote meerderheid van het publiek zich grote zorgen maakte over het gebruik van algoritmen voor bepaalde toepassingen. Het ontdekte dat 66% dacht dat het niet eerlijk zou zijn dat algoritmen persoonlijke financiële scores berekenen, terwijl 57% hetzelfde zei over geautomatiseerde cv-screening.
Een klein deel van de individuen oefent enige controle uit over hoe algoritmen hun persoonlijke gegevens gebruiken. Bijvoorbeeld, het Hu-Manity-platform biedt gebruikers een optie om te bepalen hoeveel van hun gegevens worden verzameld. Online encyclopedie Everipedia biedt gebruikers de mogelijkheid om een belanghebbende te zijn in het proces van beheer, wat betekent dat gebruikers ook kunnen bepalen hoe informatie wordt geaggregeerd en aan hen wordt gepresenteerd.
Echter, een overgrote meerderheid van platforms biedt hun eindgebruikers niet zo'n flexibiliteit of het recht om te kiezen hoe het algoritme hun voorkeuren gebruikt bij het samenstellen van hun nieuwsfeed of bij het aanbevelen van inhoud. Als er opties zijn, gebruikers weten er misschien niets van. Ongeveer 74% van de gebruikers van Facebook zei in een enquête dat ze niet wisten hoe het platform hun persoonlijke interesses karakteriseert.
Volgens mij, de nieuwe digitale geletterdheid is geen computer gebruiken of internetten, maar het begrijpen en evalueren van de gevolgen van een altijd aangesloten levensstijl.
Deze levensstijl heeft een betekenisvolle impact op hoe mensen met anderen omgaan; op hun vermogen om aandacht te besteden aan nieuwe informatie; en over de complexiteit van hun besluitvormingsprocessen.
Toenemende algoritmische angst kan ook worden weerspiegeld door parallelle verschuivingen in de economie. Een kleine groep individuen profiteert van de voordelen van automatisering, terwijl veel werknemers zich in een precaire positie bevinden.
Afmelden voor algoritmische curatie is een luxe - en zou ooit een symbool van welvaart kunnen zijn dat slechts voor een select aantal beschikbaar is. De vraag is dan wat de meetbare schade zal zijn voor degenen aan de verkeerde kant van de digitale kloof.
Dit artikel is opnieuw gepubliceerd vanuit The Conversation onder een Creative Commons-licentie. Lees het originele artikel.
Wetenschap © https://nl.scienceaq.com