science >> Wetenschap >  >> Elektronica

Enorme fouten gevonden in technologie voor gezichtsherkenning:Amerikaans onderzoek

Gezichtsherkenningssoftware kan enorm onnauwkeurige resultaten opleveren, volgens een studie van de Amerikaanse regering over de technologie, die wordt gebruikt voor wetshandhaving, luchthavenbeveiliging en elders

Gezichtsherkenningssystemen kunnen enorm onnauwkeurige resultaten opleveren, speciaal voor niet-blanken, volgens een onderzoek van de Amerikaanse regering dat donderdag is vrijgegeven en dat waarschijnlijk nieuwe twijfels oproept over de inzet van de kunstmatige-intelligentietechnologie.

De studie van tientallen gezichtsherkenningsalgoritmen toonde "false positives" -percentages voor Aziatische en Afro-Amerikaanse tot 100 keer hoger dan voor blanken.

De onderzoekers van het National Institute of Standards and Technology (NIST), een onderzoekscentrum van de overheid, ontdekte ook dat twee algoritmen bijna 35 procent van de tijd het verkeerde geslacht toekenden aan zwarte vrouwen.

De studie komt te midden van wijdverbreide inzet van gezichtsherkenning voor wetshandhaving, luchthavens, grensbeveiliging, bankieren, detailhandel, scholen en voor persoonlijke technologie zoals het ontgrendelen van smartphones.

Sommige activisten en onderzoekers hebben beweerd dat de kans op fouten te groot is en dat fouten kunnen leiden tot het opsluiten van onschuldige mensen, en dat de technologie zou kunnen worden gebruikt om databases te creëren die kunnen worden gehackt of op ongepaste wijze worden gebruikt.

De NIST-studie vond zowel "false positives, " waarin een persoon ten onrechte wordt geïdentificeerd, en "valse negatieven, " waarbij het algoritme er niet in slaagt om een ​​gezicht nauwkeurig te matchen met een specifieke persoon in een database.

"Een vals-negatief kan alleen maar een ongemak zijn - je kunt niet in je telefoon komen, maar het probleem kan meestal worden verholpen door een tweede poging, ", zegt hoofdonderzoeker Patrick Grother.

"Maar een vals positief resultaat in een een-op-veel-zoekopdracht plaatst een onjuiste match op een lijst met kandidaten die nader onderzoek rechtvaardigen."

Uit de studie bleek dat in de VS ontwikkelde gezichtsherkenningssystemen hogere foutenpercentages hadden voor Aziaten, Afro-Amerikanen en Indiaanse groepen, met de demografie van de Amerikaanse Indianen met de hoogste percentages valse positieven.

Echter, sommige algoritmen die in Aziatische landen zijn ontwikkeld, produceerden vergelijkbare nauwkeurigheidspercentages voor het matchen tussen Aziatische en blanke gezichten - wat volgens de onderzoekers suggereert dat deze verschillen kunnen worden gecorrigeerd.

"Deze resultaten zijn een bemoedigend teken dat meer diverse trainingsgegevens meer billijke resultaten kunnen opleveren, ' zei Grootvader.

Niettemin, Jay Stanley van de American Civil Liberties Union, die kritiek heeft geuit op de inzet van gezichtsherkenning, zei dat de nieuwe studie aantoont dat de technologie niet klaar is voor brede toepassing.

"Zelfs overheidswetenschappers bevestigen nu dat deze bewakingstechnologie gebrekkig en bevooroordeeld is, ' zei Stanley in een verklaring.

"Eén valse match kan leiden tot gemiste vluchten, lange ondervragingen, volglijstplaatsingen, gespannen politie-ontmoetingen, valse arrestaties of erger. Maar de tekortkomingen van de technologie zijn slechts één punt van zorg. Gezichtsherkenningstechnologie, nauwkeurig of niet, kan ondetecteerbare, volhardend, en verdacht toezicht op een ongekende schaal."

© 2019 AFP