Wetenschap
Krediet:Pixabay/CC0 publiek domein
Het publiek hoeft niet te weten hoe kunstmatige intelligentie werkt om het te vertrouwen. Ze moeten alleen weten dat iemand met de nodige vaardigheden AI onderzoekt en de bevoegdheid heeft om sancties op te leggen als het schade veroorzaakt of waarschijnlijk zal veroorzaken.
Dr. Bran Knowles, een senior docent data science aan de Lancaster University, zegt:"Ik ben er zeker van dat het publiek niet in staat is om de betrouwbaarheid van individuele AI's te bepalen... maar we hebben ze niet nodig om dit te doen. Het is niet hun verantwoordelijkheid om AI eerlijk te houden."
Vandaag (8 maart) presenteert Dr. Knowles een onderzoekspaper "The Sanction of Authority:Promoting Public Trust in AI" op de ACM Conference on Fairness, Verantwoording en Transparantie (ACM FAccT).
Het papier is co-auteur van John T. Richards, van IBM's T.J. Watson onderzoekscentrum, Yorktown-hoogten, New York.
Het grote publiek is, de papieren notities, vaak wantrouwend tegenover AI, die zowel voortkomt uit de manier waarop AI door de jaren heen is afgebeeld als uit een groeiend besef dat er weinig zinvol toezicht op is.
De auteurs stellen dat meer transparantie en meer toegankelijke uitleg over hoe AI-systemen werken, gezien als een middel om het vertrouwen te vergroten, niet ingaan op de zorgen van het publiek.
Een 'regulerend ecosysteem, " ze zeggen, is de enige manier waarop AI op een zinvolle manier verantwoording aflegt aan het publiek, hun vertrouwen verdienen.
"Het publiek houdt zich niet routinematig bezig met de betrouwbaarheid van voedsel, luchtvaart, en farmaceutica omdat ze erop vertrouwen dat er een systeem is dat deze dingen regelt en elke overtreding van veiligheidsprotocollen bestraft, " zegt dr. Richards.
En, voegt Dr. Knowles toe:"In plaats van te vragen dat het publiek vaardigheden opdoet om weloverwogen beslissingen te nemen over welke AI's hun vertrouwen waard zijn, het publiek heeft dezelfde garanties nodig dat elke AI die ze tegenkomen hen geen schade zal berokkenen."
Ze benadrukt de cruciale rol van AI-documentatie bij het mogelijk maken van dit betrouwbare regelgevende ecosysteem. Als voorbeeld, de paper bespreekt het werk van IBM aan AI Factsheets, documentatie die is ontworpen om belangrijke feiten vast te leggen met betrekking tot de ontwikkeling en het testen van een AI.
Maar, terwijl dergelijke documentatie informatie kan verschaffen die interne auditors en externe regelgevers nodig hebben om de naleving van opkomende kaders voor betrouwbare AI te beoordelen, Dr. Knowles waarschuwt ervoor om er niet op te vertrouwen om het vertrouwen van het publiek rechtstreeks te bevorderen.
"Als we er niet in slagen te erkennen dat de last om toezicht te houden op de betrouwbaarheid van AI moet liggen bij hoogopgeleide regelgevers, dan is de kans groot dat de toekomst van AI-documentatie nog een ander toestemmingsmechanisme in de vorm van voorwaarden en bepalingen is - iets dat niemand echt leest of begrijpt, " ze zegt.
Het document roept op om AI-documentatie goed te begrijpen als een middel om specialisten in staat te stellen de betrouwbaarheid te beoordelen.
"AI heeft materiële gevolgen in onze wereld die van invloed zijn op echte mensen; en we hebben echte verantwoordelijkheid nodig om ervoor te zorgen dat de AI die onze wereld doordringt, helpt die wereld te verbeteren, " zegt Dr. Knowles.
Wetenschap © https://nl.scienceaq.com