science >> Wetenschap >  >> anders

De politie helpen bij het nemen van beslissingen over bewaring met behulp van kunstmatige intelligentie

Krediet:Rene Böhmer op Unsplash

De politie aan de "frontlinie" van moeilijke, op risico gebaseerde oordelen, test een AI-systeem dat is opgeleid door criminologen van de Universiteit van Cambridge om advies te geven met behulp van de resultaten van vijf jaar criminele geschiedenis.

"Het is zaterdagochtend 3 uur. De man voor je is betrapt op drugsbezit. Hij heeft geen wapens, en geen verslag van gewelddadige of ernstige misdaden. Laat je de man de volgende ochtend op borgtocht vrij, of hem twee dagen opsluiten om er zeker van te zijn dat hij maandag voor de rechter komt?"

Het soort scenario dat Dr. Geoffrey Barnes beschrijft - of het nu gaat om het vasthouden van een verdachte in politiehechtenis of om hem op borgtocht vrij te laten - komt honderdduizenden keren per jaar in het VK voor. De uitkomst van deze beslissing kan belangrijk zijn voor de verdachte, voor de openbare veiligheid en voor de politie.

"De politieagenten die deze voogdijbeslissingen nemen, zijn zeer ervaren, " legt Barnes uit. "Maar al hun kennis en politievaardigheden kunnen hen niet het enige vertellen dat ze nu het meest nodig hebben over de verdachte - hoe waarschijnlijk is het dat hij of zij grote schade zal berokkenen als ze worden vrijgelaten? Dit is een baan waar mensen echt bang voor zijn - ze staan ​​in de frontlinie van op risico gebaseerde besluitvorming."

Barnes en professor Lawrence Sherman, die het Jerry Lee Centrum voor Experimentele Criminologie leidt aan het Instituut voor Criminologie van de Universiteit van Cambridge, hebben met politiediensten over de hele wereld samengewerkt om te vragen of AI kan helpen.

"Stel je een situatie voor waarin de officier het voordeel heeft van honderdduizend, en meer, echte eerdere ervaringen met voogdijbeslissingen?", zegt Sherman. "Niemand kan zoveel ervaringen hebben, maar een machine kan dat wel."

Medio 2016, met financiering van de Monument Trust, de onderzoekers installeerden 's werelds eerste AI-tool om de politie te helpen bij het nemen van vrijheidsbenemende beslissingen in Durham Constabulary.

De Harm Assessment Risk Tool (HART) genoemd, de op AI gebaseerde technologie gebruikt 104, 000 geschiedenissen van mensen die eerder zijn gearresteerd en verwerkt in de voogdijsuites van Durham in de loop van vijf jaar, met een follow-up van twee jaar voor elke voogdijbeslissing. Met behulp van een methode genaamd "willekeurige bossen", het model kijkt naar een groot aantal combinaties van 'voorspellerwaarden', waarvan de meeste zich richten op de beledigende geschiedenis van de verdachte, evenals leeftijd, geslacht en geografisch gebied.

"Deze variabelen worden op duizenden verschillende manieren gecombineerd voordat een definitieve voorspelde conclusie wordt bereikt, " legt Barnes uit. "Stel je een mens voor die dit aantal variabelen in zijn hoofd heeft, en het maken van al deze verbindingen voordat u een beslissing neemt. Onze geest kan het gewoon niet aan."

Het doel van HART is om te categoriseren of een dader in de komende twee jaar een hoog risico loopt (grote kans om een ​​nieuw ernstig misdrijf te plegen zoals moord, verergerd geweld, seksuele misdrijven of diefstal); matig risico (waarschijnlijk een niet-ernstig misdrijf plegen); of laag risico (waarschijnlijk geen overtreding begaan).

"De behoefte aan een goede voorspelling gaat niet alleen over het identificeren van de gevaarlijke mensen, " legt Sherman uit. "Het gaat ook om het identificeren van mensen die absoluut niet gevaarlijk zijn. Voor elk geval van een verdachte op borgtocht die iemand doodt, er zijn tienduizenden niet-gewelddadige verdachten die langer opgesloten zitten dan nodig is."

Durham Constabulary wil de 'gematigde risico'-groep identificeren - die volgens de statistieken van HART verantwoordelijk is voor iets minder dan de helft van alle verdachten. Deze personen kunnen baat hebben bij hun Checkpoint-programma, die tot doel heeft de grondoorzaken van strafbare feiten aan te pakken en een alternatief te bieden voor vervolging waarvan ze hopen dat ze gematigde risico's in lage risico's zullen veranderen.

"Het zijn naalden en hooibergen, " zegt Sherman. "Aan de ene kant, de gevaarlijke 'naalden' zijn te zeldzaam om ze vaak genoeg tegen te komen om ze te zien. Op de andere, het 'hooi' vormt geen bedreiging en het in hechtenis houden ervan verspilt middelen en kan zelfs meer kwaad dan goed doen." Er loopt momenteel een gerandomiseerde, gecontroleerde studie in Durham om het gebruik van Checkpoint te testen bij degenen die voorspeld zijn als matig risico.

HART wordt ook opgefrist met recentere gegevens - een stap die Barnes uitlegt, zal een belangrijk onderdeel zijn van dit soort tools:"Een menselijke beslisser kan zich onmiddellijk aanpassen aan een veranderende context - zoals een prioritering van bepaalde overtredingen, zoals haatmisdrijven – maar hetzelfde kan niet per se worden gezegd van een algoritmisch hulpmiddel. Dit suggereert de noodzaak van een zorgvuldige en constante controle van de gebruikte voorspellers en voor het regelmatig verversen van het algoritme met recentere historische gegevens."

Geen enkele voorspellingstool kan perfect zijn. Een onafhankelijke validatiestudie van HART vond een algehele nauwkeurigheid van ongeveer 63%. Maar, zegt Barnes, de echte kracht van machine learning zit niet in het vermijden van fouten, maar in het beslissen welke fouten je het liefst wilt vermijden.

"Niet alle fouten zijn gelijk, " zegt Sheena Urwin, hoofd strafrecht bij Durham Constabulary en afgestudeerd aan het Police Executive Master of Studies-programma van het Institute of Criminology. "De ergste fout zou zijn als het model laag voorspelt en de overtreder hoog."

"In overleg met de politie van Durham, we hebben een systeem gebouwd dat 98% nauwkeurig is in het vermijden van deze gevaarlijkste vorm van fouten - de 'vals-negatieve' - de dader waarvan wordt voorspeld dat hij relatief veilig is, maar pleegt dan een ernstig geweldsmisdrijf, " voegt Barnes toe. "AI is oneindig aanpasbaar en bij het bouwen van een AI-tool is het belangrijk om de ethisch meest geschikte route af te wegen."

De onderzoekers benadrukken ook dat de output van HART alleen als richtlijn dient, en dat de uiteindelijke beslissing die van de verantwoordelijke politieagent is.

"HART gebruikt de gegevens van Durham en is dus alleen relevant voor strafbare feiten die zijn gepleegd in de jurisdictie van Durham Constabulary. Deze beperking is een van de redenen waarom dergelijke modellen moeten worden beschouwd als ondersteuning van menselijke besluitvormers en niet ter vervanging ervan. " legt Barnes uit. "Deze technologieën zijn niet, van hunzelf, zilveren kogels voor wetshandhaving, en het zijn ook geen sinistere machinaties van een zogenaamde surveillancestaat."

Sommige beslissingen, zegt Sherman, hebben een te grote impact op de samenleving en het welzijn van individuen om te worden beïnvloed door een opkomende technologie.

Waar op AI gebaseerde tools veelbelovend zijn, echter, is om de prognose van het risiconiveau van daders te gebruiken voor effectieve 'triage', zoals Sherman beschrijft:"De politie staat onder druk om meer te doen met minder, middelen efficiënter inzetten, en om het publiek veilig te houden.

"De tool helpt bij het identificeren van de weinige 'naalden in de hooiberg' die een groot gevaar vormen voor de gemeenschap, en waarvan de vrijgave moet worden onderworpen aan aanvullende beoordelingslagen. Tegelijkertijd, betere triage kan ertoe leiden dat de juiste overtreders vrijlatingsbesluiten krijgen die zowel voor henzelf als voor de samenleving gunstig zijn."