Wetenschap
Als een beeld meer zegt dan duizend woorden, gezichtsherkenning schildert er twee:het is bevooroordeeld.
U herinnert zich misschien een paar jaar geleden dat Google Foto's afbeeldingen van zwarte mensen automatisch labelde als 'gorilla's, " of Flickr (dat destijds eigendom was van Yahoo) hetzelfde doet en mensen tagt als 'apen' of 'dieren'.
Eerder dit jaar, de New York Times gerapporteerd over een studie van Joy Buolamwini, een onderzoeker bij het MIT Media Lab, over kunstmatige intelligentie, algoritmen en vooringenomenheid:ze ontdekte dat gezichtsherkenning het meest nauwkeurig is voor blanke mannen, en het minst nauwkeurig voor mensen met een donkere huidskleur, vooral vrouwen.
Nu gezichtsherkenning wordt overwogen voor gebruik of wordt gebruikt door de politie, luchthavens, immigratieambtenaren en anderen - Microsoft zegt dat het zijn gezichtsherkenningstechnologie heeft verbeterd tot het punt waarop het foutenpercentage voor mannen en vrouwen met een donkere huidskleur tot 20 keer heeft verlaagd. Alleen voor vrouwen, het bedrijf zegt het foutenpercentage negen keer te hebben verlaagd.
Microsoft heeft verbeteringen aangebracht door meer gegevens te verzamelen en de datasets die het gebruikte om zijn AI te trainen uit te breiden en te herzien.
Uit een recent blogbericht van een bedrijf:"De hogere foutenpercentages bij vrouwen met een donkere huid wijzen op een uitdaging in de hele sector:technologieën voor kunstmatige intelligentie zijn slechts zo goed als de gegevens die worden gebruikt om ze te trainen. Als een gezichtsherkenningssysteem goed moet presteren bij alle mensen, de trainingsdataset moet een diversiteit aan huidtinten vertegenwoordigen, evenals factoren zoals kapsel, sieraden en brillen."
Met andere woorden, het bedrijf dat ons Tay bracht, de op seks beluste en nazi-liefhebbende chatbot, wil dat we weten dat het probeert, het is echt proberen. (Je herinnert je misschien ook dat Microsoft zijn AI-experiment Tay in 2016 offline heeft gehaald nadat ze al snel gekke en racistische dingen op Twitter begon te spuwen, weerspiegelt de dingen die ze online heeft geleerd. Het bedrijf beschuldigde een "gecoördineerde aanval door een subset van mensen" voor Tay's corruptie.)
In gerelateerd nieuws, IBM heeft aangekondigd dat het 's werelds grootste gezichtsdataset zal vrijgeven aan technologen en onderzoekers, om te helpen bij het bestuderen van vooroordelen. Het brengt dit najaar eigenlijk twee datasets uit:een met meer dan 1 miljoen afbeeldingen, en een andere die 36 heeft, 000 gezichtsfoto's gelijk verdeeld naar etniciteit, geslacht en leeftijd.
Big Blue zei ook dat het zijn Watson Visual Recognition-service voor gezichtsanalyse heeft verbeterd, het foutenpercentage bijna vertienvoudigd, eerder dit jaar.
"AI heeft een aanzienlijke kracht om de manier waarop we leven en werken te verbeteren, maar alleen als AI-systemen op verantwoorde wijze worden ontwikkeld en getraind, en resultaten opleveren die we vertrouwen, IBM zei in een blogpost. "Ervoor zorgen dat het systeem wordt getraind op evenwichtige gegevens, en verlost van vooroordelen, is van cruciaal belang voor het bereiken van een dergelijk vertrouwen."
©2018 The Mercury News (San Jose, Californië)
Gedistribueerd door Tribune Content Agency, LLC.
Wetenschap © https://nl.scienceaq.com