Wetenschap
Krediet:Spainter_vfx/Shutterstock.com
Films zoals 2001:Een ruimte-odyssee , Blade Runner en de terminator brachten malafide robots en computersystemen naar onze bioscoopschermen. Maar deze dagen, zulke klassieke sciencefictionbrillen lijken niet zo ver verwijderd van de werkelijkheid.
Meer en meer, we leven, werken en spelen met computertechnologieën die autonoom en intelligent zijn. Deze systemen omvatten software en hardware met het vermogen om onafhankelijk te redeneren en beslissingen te nemen. Ze werken voor ons op de fabrieksvloer; zij beslissen of we een hypotheek kunnen krijgen; ze volgen en meten onze activiteit en fitnessniveaus; ze maken onze woonkamervloeren schoon en maaien onze gazons.
Autonome en intelligente systemen hebben het potentieel om bijna elk aspect van onze sociale, economisch, politieke en privéleven, inclusief alledaagse aspecten. Veel hiervan lijkt onschuldig, maar er is reden tot zorg. Computertechnologieën hebben invloed op elk mensenrecht, van het recht op leven naar het recht op privacy, vrijheid van meningsuiting tot sociale en economische rechten. Dus hoe kunnen we mensenrechten verdedigen in een technologisch landschap dat steeds meer wordt gevormd door robotica en kunstmatige intelligentie (AI)?
AI en mensenrechten
Eerst, er is een reële angst dat een grotere autonomie van machines de status van de mens zal ondermijnen. Deze angst wordt verergerd door een gebrek aan duidelijkheid over wie ter verantwoording zal worden geroepen, in juridische of morele zin, wanneer intelligente machines schade aanrichten. Maar ik weet niet zeker of de focus van onze zorg voor mensenrechten echt moet liggen bij malafide robots, zoals het nu lijkt. Liever, we moeten ons zorgen maken over het menselijk gebruik van robots en kunstmatige intelligentie en hun inzet in onrechtvaardige en ongelijke politieke, leger, economische en sociale context.
Deze zorg is met name relevant met betrekking tot dodelijke autonome wapensystemen (LAWS), vaak omschreven als killer robots. Terwijl we op weg zijn naar een AI-wapenwedloop, mensenrechtenwetenschappers en actievoerders zoals Christof Heyns, de voormalige speciale VN-rapporteur voor buitengerechtelijke, standrechtelijke of willekeurige executies, vrees dat het gebruik van LAWS autonome robotsystemen de leiding zal geven over beslissingen over leven en dood, met beperkte of geen menselijke controle.
AI zorgt ook voor een revolutie in de koppeling tussen oorlogsvoering en surveillancepraktijken. Groepen zoals het International Committee for Robot Arms Control (ICRAC) hebben onlangs hun verzet geuit tegen de deelname van Google aan Project Maven, een militair programma dat machine learning gebruikt om bewakingsbeelden van drones te analyseren, die kunnen worden gebruikt voor buitengerechtelijke executies. ICRAC deed een beroep op Google om ervoor te zorgen dat de gegevens die het over zijn gebruikers verzamelt nooit voor militaire doeleinden worden gebruikt, deelname aan protesten van Google-medewerkers over de betrokkenheid van het bedrijf bij het project. Google heeft onlangs aangekondigd dat het zijn contract niet zal verlengen.
In 2013, de omvang van de surveillancepraktijken werd benadrukt door de onthullingen van Edward Snowden. Deze leerden ons veel over de bedreiging van het recht op privacy en het delen van gegevens tussen inlichtingendiensten, overheidsinstanties en particuliere bedrijven. De recente controverse rond het verzamelen van persoonlijke gegevens door Cambridge Analytica via het gebruik van sociale-mediaplatforms zoals Facebook blijft ernstige bezorgdheid veroorzaken, dit keer over manipulatie en inmenging in democratische verkiezingen die het recht op vrijheid van meningsuiting schaden.
In de tussentijd, kritische data-analisten dagen discriminerende praktijken uit die verband houden met wat zij het "white guy-probleem" van AI noemen. Dit is de zorg dat AI-systemen die zijn getraind op bestaande gegevens, bestaande raciale en genderstereotypen repliceren die discriminerende praktijken in stand houden op gebieden zoals politie, gerechtelijke beslissingen of tewerkstelling.
Dubbelzinnige bots
De potentiële bedreiging van computertechnologieën voor mensenrechten en voor fysieke, politieke en digitale veiligheid werd benadrukt in een recent gepubliceerde studie over The Malicious Use of Artificial Intelligence. De zorgen die in dit rapport van de Universiteit van Cambridge naar voren worden gebracht, moeten serieus worden genomen. Maar hoe moeten we omgaan met deze bedreigingen? Zijn mensenrechten klaar voor het tijdperk van robotica en AI?
Er zijn voortdurende inspanningen om de bestaande mensenrechtenprincipes voor dit tijdperk te actualiseren. Deze omvatten de UN Framing and Guiding Principles on Business and Human Rights, pogingen om een Magna Carta te schrijven voor het digitale tijdperk en de Asilomar AI Principles van het Future of Life Institute, die richtlijnen voor ethisch onderzoek identificeren, naleving van waarden en een inzet voor de gunstige ontwikkeling van AI op de langere termijn.
Deze inspanningen zijn lovenswaardig, maar niet voldoende. Overheden en overheidsinstanties, politieke partijen en particuliere bedrijven, vooral de toonaangevende technologiebedrijven, moeten zich inzetten voor het ethische gebruik van AI. We hebben ook effectieve en afdwingbare wetgevende controle nodig.
Welke nieuwe maatregelen we ook invoeren, het is belangrijk om te erkennen dat ons leven steeds meer verstrikt raakt in autonome machines en intelligente systemen. Deze verstrengeling verbetert het menselijk welzijn op gebieden zoals medisch onderzoek en behandeling, in ons transportsysteem, in instellingen voor sociale zorg en bij inspanningen om het milieu te beschermen.
Maar op andere gebieden werpt deze verstrengeling zorgwekkende perspectieven op. Computertechnologieën worden gebruikt om onze acties en gedragingen te bekijken en te volgen, volg onze stappen, onze locatie, onze gezondheid, onze smaak en onze vriendschappen. Deze systemen geven vorm aan menselijk gedrag en stuwen ons naar praktijken van zelftoezicht die onze vrijheid inperken en de ideeën en idealen van mensenrechten ondermijnen.
En hierin ligt de crux:de capaciteit voor dubbel gebruik van computertechnologieën vervaagt de grens tussen weldadige en kwaadaardige praktijken. Bovendien, computationele technologieën zijn nauw betrokken bij de ongelijke machtsverhoudingen tussen individuele burgers, de staat en zijn instanties, en particuliere bedrijven. Indien losgekoppeld van effectieve nationale en internationale systemen van checks and balances, ze vormen een reële en zorgwekkende bedreiging voor onze mensenrechten.
Dit artikel is oorspronkelijk gepubliceerd op The Conversation. Lees het originele artikel.
Wetenschap © https://nl.scienceaq.com