Wetenschap
Op 18 maart in Tempe, Arizona, een zelfrijdende auto van Uber sloeg en doodde Elaine Herzberg, die met haar fiets een straat overstak. De menselijke bestuurder zou het gedrag van de auto in de gaten houden, maar deed dat niet. Zijn systemen hebben het slachtoffer blijkbaar niet gedetecteerd, omdat het niet vertraagde en ook niet probeerde te voorkomen dat het werd geraakt. Krediet:Herzberg Wikimedia
De dodelijke crash met een autonome auto van Uber in de Verenigde Staten was een tragische maar tijdige herinnering aan de gevaren van bedrijven die zich haasten om kunstmatige intelligentie te implementeren om als eerste op de markt te komen.
Op het moment van de crash, de bestuurder die klaar had moeten zijn om te reageren op zo'n gebeurtenis als deze, keek naar beneden. De auto zelf had de voetganger blijkbaar niet helemaal gezien en remde niet af of probeerde haar te ontwijken.
Testen in de echte wereld, en risico's
Opnieuw, we zien dat een technologie voornamelijk wordt getest om onder normale omstandigheden te werken, zodat deze op de markt kan worden uitgerold en niet noodzakelijkerwijs wordt gebouwd met veiligheid als primaire focus. Zoals de voormalige ontwikkelaar van Uber's machine learning en AI-platform heeft gezegd:autobedrijven zouden hun auto's moeten trainen in gesimuleerde omgevingen die kunnen worden geprogrammeerd om ze te trainen in het detecteren en vermijden van een aantal mogelijkheden van willekeurige gebeurtenissen die de auto op de weg kan tegenkomen.
Machine learning heeft een fundamenteel probleem:het vermogen om een taak uit te voeren, hangt af van de gegevens die worden gebruikt om de taak te trainen. Welk exacte algoritme het uiteindelijk gebruikt om zijn uiteindelijke doel te bereiken en welke functies het belangrijkst zijn, is grotendeels onbekend. Met diep leren, de meerdere lagen waaruit het algehele neurale netwerk van de machine learning-software bestaat, maken dit proces nog mysterieuzer en onbekender.
We weten wel dat machine learning-software vooroordelen oppikt in de gegevens die worden gebruikt om het te testen. Van software die wordt gebruikt om het risico te berekenen dat een dader een toekomstige misdaad begaat en die vaak door rechtbanken in de VS wordt gebruikt, is aangetoond dat het systematisch een significant lager risico voor blanke delinquenten berekent dan mensen van kleur. Andere onderzoekers hebben aangetoond dat machine learning-algoritmen gendervooroordelen leren die inherent zijn aan de teksten die worden gebruikt om ze te trainen.
De gevaren van nu weten hoe dingen werken, zijn duidelijk aangetoond door de recente bekentenis van Facebook dat het echt niet wist wat mensen deden met de gegevens van miljoenen gebruikers die Facebook hen had aangemoedigd om te gebruiken. Met het gebruik van zijn platform voor de verspreiding van gericht nepnieuws tijdens de Amerikaanse presidentsverkiezingen, Facebook gaf opnieuw toe dat het zich niet had gerealiseerd dat buitenlandse regeringen deze naïviteit zouden uitbuiten om de democratie te ondermijnen.
Meer dan alleen Facebook
Het zou verkeerd zijn om Facebook eruit te pikken als het enige bedrijf dat niet wist dat hun software kon worden misbruikt om individuen en de samenleving schade toe te brengen. De "recht om te worden vergeten"-amendementen in de wetgeving inzake gegevensprivacy en vastgesteld door de Europese Unie, zijn specifiek geformuleerd om de onwil van Google aan te pakken om de bijwerkingen van zijn zoekopdracht op de privacy van individuen te corrigeren. In veel landen was wetgeving nodig om het melden van datalekken verplicht te stellen, omdat bedrijven niet bereid waren om cyberbeveiliging, en de bescherming van de gegevens van hun gebruikers, ernstig.
Gezien het verleden, er is geen reden om aan te nemen dat bedrijven die systemen implementeren op basis van AI, denken aan beveiliging en privacy by design. Integendeel, machine learning heeft gegevens nodig, veel ervan, en dus verwerven bedrijven enorme gegevensopslagplaatsen met gedetailleerde informatie om deze via algoritmen te exploiteren. Hoewel je zou kunnen zeggen dat er op een verantwoorde manier mee wordt omgegaan, grote hoeveelheden data zijn van onschatbare waarde voor onderzoek, in het bijzonder op het gebied van gezondheid, de risico's van het verzamelen, het opslaan en gebruiken van die gegevens, vooral in een commerciële setting zijn erg hoog.
Rapport van de Franse regering
In Frankrijk, Cédric Villani – de veldprijswinnende wiskundige en lid van de Nationale Assemblee – heeft zijn eindrapport afgeleverd waarin hij een nationale strategie voor de studie en exploitatie van kunstmatige intelligentie beschrijft. De aanbevelingen hebben betrekking op veel van de mogelijke problemen die kunnen ontstaan bij het proberen in evenwicht te brengen tussen de vraag naar onderzoek, innovatie en commercialisering van AI. Ze erkennen ook de noodzaak om de privacy en veiligheid van de samenleving en individuen te beschermen en stellen een actieve rol voor de overheid voor om ervoor te zorgen dat AI wordt gebruikt op een manier die de samenleving ten goede komt en de mensenrechten en waarden respecteert.
Echter, niets van dit alles zal gemakkelijk zijn. Er is al beweerd dat de Europese Algemene Verordening Gegevensbescherming (AVG) op 25 mei volledig van kracht wordt, EU-bedrijven in een concurrentienadeel zullen brengen ten opzichte van hun concurrenten in Noord-Amerika en Azië.
Men moet hopen dat tragedies zoals de dood van de 49-jarige Elaine Herzberg, aangereden door een zelfrijdende Uber-auto, en de wijdverbreide verontwaardiging over de minachting van Facebook voor de persoonlijke gegevens van zijn gebruikers zal mensen eraan herinneren dat gemeten technologische vooruitgang een voordeel heeft en niet de huidige mantra van technologische vooruitgang tegen elke prijs.
Dit artikel is oorspronkelijk gepubliceerd op The Conversation. Lees het originele artikel. Dit artikel is oorspronkelijk gepubliceerd op The Conversation. Lees het originele artikel.
Wetenschap © https://nl.scienceaq.com