Wetenschap
Krediet:CC0 Publiek Domein
In een nieuwe reeks experimenten, kunstmatige intelligentie (A.I.)-algoritmen waren in staat om de voorkeuren van mensen voor fictieve politieke kandidaten of potentiële romantische partners te beïnvloeden, afhankelijk van de vraag of de aanbevelingen expliciet of heimelijk waren. Ujué Agudo en Helena Matute van Universidad de Deusto in Bilbao, Spanje, presenteer deze bevindingen in het open-access tijdschrift PLOS EEN op 21 april 2021.
Van Facebook tot Google zoekresultaten, veel mensen ontmoeten A.I. algoritmen elke dag. Particuliere bedrijven doen uitgebreid onderzoek naar de gegevens van hun gebruikers, het genereren van inzichten in menselijk gedrag die niet publiekelijk beschikbaar zijn. Academisch sociaalwetenschappelijk onderzoek loopt achter bij particulier onderzoek, en publieke kennis over hoe A.I. algoritmen die de beslissingen van mensen kunnen vormen, ontbreekt.
Om nieuw licht te werpen, Agudo en Matute voerden een reeks experimenten uit die de invloed van A.I. algoritmen in verschillende contexten. Ze rekruteerden deelnemers om te communiceren met algoritmen die foto's presenteerden van fictieve politieke kandidaten of online datingkandidaten, en vroegen de deelnemers aan te geven op wie ze zouden stemmen of een bericht zouden sturen. De algoritmen promootten sommige kandidaten boven anderen, ofwel expliciet (bijv. "90% compatibiliteit") of heimelijk, bijvoorbeeld door hun foto's vaker te laten zien dan anderen'.
Algemeen, de experimenten toonden aan dat de algoritmen een significante invloed hadden op de beslissingen van de deelnemers waarop ze moesten stemmen of berichten. Voor politieke beslissingen, expliciete manipulatie had een significante invloed op beslissingen, terwijl geheime manipulatie niet effectief was. Het tegenovergestelde effect werd gezien voor datingbeslissingen.
De onderzoekers speculeren dat deze resultaten een afspiegeling kunnen zijn van de voorkeur van mensen voor expliciet menselijk advies als het gaat om subjectieve zaken zoals daten, terwijl mensen misschien liever algoritmisch advies geven over rationele politieke beslissingen.
In het licht van hun bevindingen, de auteurs spreken hun steun uit voor initiatieven die de betrouwbaarheid van A.I. willen vergroten, zoals de Ethics Guidelines for Trustworthy AI van de Europese Commissie en het verklaarbare AI (XAI)-programma van DARPA. Nog altijd, ze waarschuwen dat er meer openbaar onderzoek nodig is om de kwetsbaarheid van de mens voor algoritmen te begrijpen.
In de tussentijd, de onderzoekers pleiten voor inspanningen om het publiek voor te lichten over de risico's van blind vertrouwen in aanbevelingen van algoritmen. Ze benadrukken ook de noodzaak van discussies over eigendom van de gegevens die deze algoritmen aansturen.
De auteurs voegen toe:"Als een fictief en simplistisch algoritme zoals het onze een dergelijk niveau van overtuiging kan bereiken zonder daadwerkelijk aangepaste profielen van de deelnemers op te stellen (en in alle gevallen dezelfde foto's te gebruiken), een meer geavanceerd algoritme zoals dat waarmee mensen in hun dagelijks leven omgaan, zou zeker een veel sterkere invloed moeten kunnen uitoefenen."
Wetenschap © https://nl.scienceaq.com