Wetenschap
Een van de prangende vragen die bij kunstmatige intelligentie rijzen, is hoe de acties van machines die zelf beslissingen nemen, kunnen worden verklaard. Krediet:ITU-afbeeldingen, gelicentieerd onder CC BY 2.0
Digitale technologieën zoals kunstmatige intelligentie en robotica, 'wanhopig' behoefte hebben aan een institutioneel kader en een systeem van waarden om de industrie te helpen reguleren, heeft een ethiekdeskundige aan vooraanstaande wetenschappers en beleidsmakers verteld.
Jeroen van den Hoven, hoogleraar ethiek en technologie aan de Technische Universiteit Delft in Nederland, sprak tijdens een sessie over ethiek in wetenschap en technologie op het EuroScience Open Forum (ESOF) 2018, die wordt gehouden in Toulouse, Frankrijk, van 9-14 juli.
"Mensen worden zich ervan bewust dat dit digitale tijdperk niet neutraal is..., het wordt ons voornamelijk aangeboden door grote bedrijven die wat winst willen maken, " hij zei.
Hij riep op tot een Europees netwerk van instellingen die een reeks waarden, gebaseerd op het Handvest van de grondrechten van de EU, waarin de technologische industrie zou kunnen opereren.
"We moeten opzetten, zoals we hebben gedaan voor eten, voor de luchtvaart en het verkeer, … een uitgebreid systeem van instellingen die (naar) dit gebied van kunstmatige intelligentie gaan kijken.
"We moeten nadenken over bestuur, inspectie, toezicht houden, testen, certificering, classificatie, standaardisatie, opleiding, al deze dingen. Ze zijn er niet. We moeten wanhopig, en heel snel, ons daarbij helpen."
Prof. van den Hoven is lid van de European Group on Ethics in Science and New Technologies (EGE), een onafhankelijk adviesorgaan voor de Europese Commissie, die de sessie organiseerde waarin hij sprak.
In maart, de EGE publiceerde een verklaring over kunstmatige intelligentie (AI), robotica en autonome systemen, waarin kritiek werd geleverd op de huidige 'lappendeken van ongelijksoortige initiatieven' in Europa die de sociale, juridische en ethische vragen die AI heeft opgeroepen. In de verklaring, de EGE riep op tot de totstandbrenging van een gestructureerd kader.
De Europese Commissie heeft op 14 juni aangekondigd dat ze een groep op hoog niveau van 52 mensen uit de academische wereld heeft belast, de samenleving en de industrie met de taak om richtlijnen te ontwikkelen voor het AI-gerelateerde beleid van de EU, inclusief ethische kwesties zoals eerlijkheid, veiligheid, transparantie en de eerbiediging van de grondrechten.
De expertgroep, waaronder vertegenwoordigers van brancheleiders op het gebied van AI, zoals Google, BMW en Santander, zullen hun richtlijnen begin 2019 aan de Europese Commissie presenteren.
Vooroordeel
Ethische kwesties rond AI - zoals vooringenomenheid in algoritmen voor machine learning en hoe toezicht te houden op de besluitvorming van autonome machines - trokken ook veel discussie op de ESOF 2018-conferentie.
Een belangrijk punt van zorg dat naar voren komt met de snelle ontwikkeling van machine learning, is de vraag hoe je de acties van een machine kunt verklaren. Dit is met name een probleem bij het gebruik van AI op basis van neurale netwerken, een complex systeem dat is opgezet om het menselijk brein na te bootsen, waardoor het kan leren van grote hoeveelheden gegevens. Dit leidt er vaak toe dat algoritmen een zogenaamde 'black box' worden, " waar het mogelijk is om te zien wat erin gaat en wat eruit komt, maar niet hoe de uitkomst tot stand is gekomen.
Maaike Harbers, een onderzoeksprofessor aan de Hogeschool Rotterdam in Nederland, zei dat dit een belangrijke kwestie was in het leger, waar bewapende drones worden gebruikt om acties uit te voeren.
"In het militaire domein, een heel belangrijk concept is zinvolle menselijke controle, "zei ze. "We kunnen autonome machines alleen besturen of besturen als we begrijpen wat er aan de hand is."
Prof. Harbers voegde toe dat een goed ontwerp van de interface tussen mens en machine ervoor kan zorgen dat mensen controle uitoefenen in drie belangrijke stadia:gegevensinvoer, verwerken en redeneren, en de output of actie.
Zelfs in technologieën die AI gebruiken voor doeleinden die overweldigend positief lijken, zoals sociale gezelschapsrobots voor kinderen, enkele lastige ethische kwesties aan de orde stellen. Het congrespubliek hoorde dat onderzoekers die op dit gebied werken worstelen met het effect dat deze technologieën kunnen hebben op familierelaties, bijvoorbeeld, of dat ze ongelijkheid in de samenleving zouden kunnen creëren, of als ze een sociaal isolement zouden kunnen creëren.
Op het gebied van geautomatiseerd vervoer, onderzoekers kijken ook naar de impact die zelfrijdende auto's kunnen hebben op bredere kwesties zoals rechtvaardigheid en gelijkheid. Ze onderzoeken vragen die variëren van het waarborgen van gelijke toegang tot nieuwe vormen van vervoer tot wie zou moeten profiteren van eventuele kostenbesparingen die gepaard gaan met geautomatiseerd vervoer.
Echter, de waarden die we in AI bijbrengen, kunnen een sleutelfactor zijn bij de publieke acceptatie van nieuwe technologieën.
Een van de meest bekende morele dilemma's met zelfrijdende auto's, bijvoorbeeld, is het zogenaamde trolleyprobleem. Dit roept de vraag op of een autonoom voertuig dat op weg is naar een ongeval waarbij een groep mensen betrokken is, dit moet vermijden door uit te wijken op een pad dat slechts één persoon zou raken.
Dr. Ebru Burcu Dogan van het Vedecom Instituut in Frankrijk, genoemd onderzoek laat zien dat hoewel mensen voorstander waren van een utilitaire oplossing voor het dilemma - bijvoorbeeld, het doden van de bestuurder in plaats van vijf voetgangers - ze zouden persoonlijk geen voertuig willen kopen of erin rijden dat op zo'n manier is geprogrammeerd.
"We willen allemaal profiteren van de implementatie van een technologie, maar we willen niet per se ons gedrag veranderen, of een noodzakelijk gedrag aannemen om daar te komen."
Wetenschap © https://nl.scienceaq.com