science >> Wetenschap >  >> anders

AI-veroordelingstools moeten nauwkeurig worden onderzocht, zegt nieuwe studie

Krediet:CC0 Publiek Domein

In een paper gepubliceerd door de Gedragswetenschappen &Recht logboek, experts van de Universiteit van Surrey kijken kritisch naar het toenemende gebruik van algoritmische risicobeoordelingsinstrumenten, die in een groeiend aantal strafzaken fungeren als een vorm van deskundig wetenschappelijk bewijs.

De recensie stelt dat vanwege verschillende problemen, zoals de vooroordelen van de ontwikkelaars en zwak statistisch bewijs van de voorspellende prestaties van AI, rechters moeten optreden als poortwachters en nauwlettend in de gaten houden of dergelijke instrumenten überhaupt moeten worden gebruikt.

Het document schetst drie stappen die rechters moeten overwegen:

  • Geschiktheid, dit is om te overwegen of het gebruik van de AI-tool überhaupt relevant is voor de zaak
  • Nauwkeurigheid, dit is om te begrijpen of de tool echt onderscheid kan maken tussen recidivisten en niet-recidiven
  • Betrouwbaarheid, dit zou van de rechters vereisen dat ze de betrouwbaarheid van de resultaten van de tool in de praktijk onderzoeken. Deze fase zou niet nodig zijn als de rechter zou vinden dat de AI ontbreekt in een van de eerste twee stappen.

Dr. Melissa Hamilton, auteur van de paper en Reader in Law and Criminal Justice aan de University of Surrey's School of Law, zei:"Deze opkomende AI-tools hebben het potentieel om rechters voordelen te bieden bij het veroordelen, maar er moet goed op worden gelet of ze betrouwbaar zijn. Als ze onzorgvuldig worden gebruikt, zullen deze instrumenten de beklaagden aan de ontvangende kant een slechte dienst bewijzen."