Wetenschap
Krediet:Kirill_makarov/Shutterstock.com
Het debat over de politie die machine learning gebruikt, wordt steeds intensiever - het wordt in sommige kringen als controversieel beschouwd als stoppen en zoeken.
Stoppen en zoeken is een van de meest controversiële gebieden van hoe de politie met het publiek omgaat. Het is zwaar bekritiseerd omdat het discriminerend is jegens zwarte en etnische minderheden, en voor het hebben van marginale effecten op het terugdringen van criminaliteit. Op dezelfde manier, het gebruik door de politie van algoritmen voor machinaal leren is veroordeeld door mensenrechtengroepen die beweren dat dergelijke programma's raciale profilering en discriminatie aanmoedigen en tegelijkertijd de privacy en de vrijheid van meningsuiting bedreigen.
In grote lijnen, machine learning gebruikt gegevens om computers te leren beslissingen te nemen zonder hen expliciet te instrueren hoe ze dat moeten doen. Machine learning wordt in veel industrieën met succes gebruikt om efficiëntie, risico's prioriteren en besluitvorming verbeteren.
Hoewel ze zich nog in een zeer vroeg stadium bevinden, de politie in het VK onderzoekt de voordelen van het gebruik van machine learning-methoden om misdaad te voorkomen en op te sporen, en om nieuwe inzichten te ontwikkelen om problemen van groot maatschappelijk belang aan te pakken.
Het is waar dat er potentiële problemen zijn met het gebruik van probabilistische algoritmen voor machine learning in de politie. Bijvoorbeeld, bij gebruik van historische gegevens, er zijn risico's dat algoritmen, bij het maken van voorspellingen, zal oneerlijk discrimineren jegens bepaalde groepen mensen. Maar als de politie het gebruik van deze technologie op de juiste manier aanpakt, het zou niet zo controversieel moeten zijn als stoppen en fouilleren en zou een grote bijdrage kunnen leveren aan het effectiever voorkomen en oplossen van misdrijven door de politie.
Een moderne politie-uitdaging
Denk aan het geval van de recente publieke bezorgdheid over drill-muziekvideo's en hun unieke lyrische inhoud die naar verluidt wordt gebruikt om te inspireren, aanzetten tot en verheerlijken van ernstig geweld.
Boormuziek heeft, de afgelopen jaren, verspreid naar de grote steden in het Verenigd Koninkrijk. Social media platforms zoals YouTube en Instagram hebben, tegelijkertijd, was getuige van een aanzienlijke toename van het aantal online geüploade muziekvideo's. Veel van de video's, met mannelijke rappers die gezichtsmaskers dragen, gewelddadig gebruiken, provocerende en nihilistische taal, miljoenen views krijgen.
De hoogste politieagent in het VK, Commissaris Cressida Dick, heeft publiekelijk kritiek geuit op drill-muziekvideo's, waarin staat dat ze worden gebruikt om moord en ernstig geweld te verheerlijken en de spanningen tussen rivaliserende straatbendes te laten escaleren.
Veel mensen zijn het niet eens met de politie die boormuziek de schuld geeft. Aanhangers van dit muziekgenre stellen dat moord en geweld geen nieuw fenomeen zijn, en moet niet als causaal worden beschouwd voor boorkunstenaars die rappen over de harde realiteit van hun geleefde ervaringen. Sommige academici zijn ook bezorgd dat de huidige politieaanpak "leidt tot de criminalisering van alledaagse bezigheden" en dat "jonge mensen met een arme achtergrond nu worden gecategoriseerd als onruststokers door louter een videoclip te maken."
Hoe dan ook, naar de politie, dit is een belangrijke kwestie:zij hebben een wettelijke verantwoordelijkheid om levens te beschermen en risico's voor het publiek te beheersen. Als zodanig, het detecteren van schadelijke online-inhoud die, bijvoorbeeld, een bedreiging voor iemands leven kan bevatten, is zowel een hedendaags operationeel politieprobleem, en een hardnekkig technologisch probleem dat de politie moet kunnen oplossen.
Hulpmiddelen voor machine learning ontwikkelen
Politieagenten die handmatig grote hoeveelheden video's bekijken om schadelijke en criminele inhoud te identificeren en te onderscheiden van legitieme creatieve uitingen, is enorm inefficiënt. Als zodanig, het zou geautomatiseerd moeten worden. Ja, er zijn momenteel aanzienlijke technische uitdagingen voor machine learning-algoritmen om dergelijke unieke lyrische inhoud te begrijpen. Maar dit soort problemen voor onderzoekers, past keurig in het groeiende machine learning-veld van natuurlijke taalverwerking. Dit is een veld dat computationele technieken gebruikt om menselijke taal en spraak te begrijpen.
Breder, er is een gebrek aan onderzoek naar de maatschappelijke impact van de politie die machine learning gebruikt om criminaliteit te voorkomen en op te sporen. Dus in de tussentijd om controverse te voorkomen, mag de politie niet vertrouwen op ondoorzichtige, kant-en-klare 'black box'-modellen voor machinaal leren die niet zijn getest in een operationele politiecontext om de analyse van grote hoeveelheden gegevens te automatiseren. Blackbox-modellen zijn terecht controversieel omdat ze niet hun interne logica laten zien, noch de processen die worden gebruikt om beslissingen te nemen.
Een betere manier om vooruit te komen, is dat de politie samenwerkt met experts en machine learning-modellen bouwt die specifiek zijn ontworpen voor politiedoeleinden en die beter gebruik maken van gegevens om problemen aan te pakken, zoals die inherent zijn aan drill-muziekvideo's. politie van Durham, bijvoorbeeld, hebben onlangs samengewerkt met wetenschappers van de Universiteit van Cambridge om een algoritmische risicobeoordelingstool te ontwikkelen om te helpen bij beslissingen over toekomstige overtredingen wanneer een persoon wordt gearresteerd door de politie.
Op deze manier, machine learning-tools kunnen worden ontwikkeld op basis van algemeen aanvaarde wetenschappelijke principes - met een mate van transparantie die kan worden gebruikt om publieke steun te stimuleren op manieren die stoppen en zoeken niet mogelijk was.
Bezorgdheid over transparantie
In een recent rapport, de Britse denktank RUSI voor defensie en veiligheid uitte meer specifieke zorgen over het concept van de politie die algoritmen voor machine learning gebruikt om voorspellingen te doen en besluitvorming te ondersteunen. Opmerkelijk, het gaat over het concept van "algoritmische transparantie" en de moeilijkheid voor niet-experts om te begrijpen hoe complexe statistische modellen worden gebruikt om beslissingen te nemen.
Het rapport maakt wel een belangrijk punt:als machine learning wordt gebruikt in enige vorm van strafrechtelijke niet-deskundigen moeten in staat zijn te begrijpen hoe beslissingen zijn genomen en te bepalen of de uitkomsten nauwkeurig en eerlijk zijn.
Alles bij elkaar genomen, het hoofd van de politie die machine learning gebruikt om risico's te identificeren en besluitvorming te ondersteunen, is niet - en mag niet - worden beschouwd als een nieuwe vorm van totalitarisme die de democratische rechten probeert uit te hollen, vrijheid van meningsuiting voorkomen, marginaliseren van zwarte en etnische minderheden.
Nu de toenemende misdaad in het VK het belangrijkste probleem is waarmee het Britse publiek na de Brexit wordt geconfronteerd, machine learning - binnen een passende ethische, regelgevend en publiek vertrouwenskader - zou een plaats moeten krijgen in de moderne politietoolbox om misdaad te voorkomen en het publiek te beschermen.
Dit artikel is opnieuw gepubliceerd vanuit The Conversation onder een Creative Commons-licentie. Lees het originele artikel.
Wetenschap © https://nl.scienceaq.com