Wetenschap
Soms worden de vragen te veel voor kunstmatige-intelligentiesystemen. Krediet:sdecoret/Shutterstock.com
Kunstmatige-intelligentiesystemen zijn krachtige hulpmiddelen voor bedrijven en overheden om gegevens te verwerken en te reageren op veranderende situaties, of het nu op de beurs is of op een slagveld. Maar er zijn nog een aantal dingen waar AI nog niet klaar voor is.
Wij zijn computerwetenschappers die werken aan het begrijpen en verbeteren van de manieren waarop algoritmen omgaan met de samenleving. AI-systemen presteren het beste als het doel duidelijk is en er hoogwaardige gegevens zijn, zoals wanneer ze worden gevraagd om onderscheid te maken tussen verschillende gezichten nadat ze hebben geleerd van veel foto's van correct geïdentificeerde mensen.
Soms doen AI-systemen het zo goed dat gebruikers en waarnemers verbaasd zijn over hoe scherpzinnig de technologie is. Echter, soms is succes moeilijk te meten of verkeerd te definiëren, of de trainingsgegevens komen niet overeen met de taak die voorhanden is. In deze gevallen, AI-algoritmen hebben de neiging om op onvoorspelbare en spectaculaire manieren te falen, al is het niet altijd meteen duidelijk dat er iets mis is gegaan. Als resultaat, het is belangrijk om op je hoede te zijn voor de hype en opwinding over wat AI kan doen, en ga er niet vanuit dat de gevonden oplossing altijd de juiste is.
Als algoritmen aan het werk zijn, er moet een menselijk vangnet zijn om te voorkomen dat mensen schade oplopen. Ons onderzoek heeft aangetoond dat algoritmen in sommige situaties problemen kunnen herkennen in hun werking, en vraag om menselijke hulp. specifiek, we laten zien, het vragen om menselijke hulp kan in sommige situaties algoritmische vooringenomenheid helpen verminderen.
Hoe zeker is het algoritme?
Bij strafrechtelijke veroordelingen worden kunstmatige-intelligentiesystemen gebruikt, op het gezicht gebaseerde persoonlijkheidsprofilering, hervatten screening, inschrijving in de gezondheidszorg en andere moeilijke taken waarbij het leven en het welzijn van mensen op het spel staan. Amerikaanse overheidsinstanties beginnen hun verkenning en gebruik van AI-systemen op te voeren, in reactie op een recent uitvoerend bevel van president Donald Trump.
Het is belangrijk om te onthouden, Hoewel, dat AI misvattingen kan verstevigen over hoe een taak wordt aangepakt, of bestaande ongelijkheden uitvergroten. Dit kan zelfs gebeuren als niemand het algoritme expliciet heeft verteld om iemand anders te behandelen.
Bijvoorbeeld, veel bedrijven hebben algoritmen die kenmerken over een persoon proberen te bepalen aan de hand van hun gezicht, bijvoorbeeld om hun geslacht te raden. De systemen die door Amerikaanse bedrijven zijn ontwikkeld, zijn doorgaans aanzienlijk beter in het categoriseren van blanke mannen dan vrouwen en mensen met een donkere huidskleur; ze doen het het slechtst bij vrouwen met een donkere huidskleur. In China ontwikkelde systemen, echter, hebben de neiging om het slechter te doen op witte gezichten.
Het verschil is niet dat de ene groep gezichten heeft die gemakkelijker te classificeren zijn dan de andere. Liever, beide algoritmen zijn doorgaans getraind op een grote verzameling gegevens die niet zo divers is als de totale menselijke populatie. Als de dataset wordt gedomineerd door een bepaald type gezicht – blanke mannen in de VS, en Chinese gezichten in China – dan zal het algoritme die gezichten waarschijnlijk beter analyseren dan andere.
Bevooroordeelde trainingsgegevens kunnen systemen beter maken, of erger, bij het herkennen van bepaalde soorten gezichten. Krediet:Andrey_Popov/Shutterstock.com
Hoe het verschil ook ontstaat, het resultaat is dat algoritmen bevooroordeeld kunnen zijn door nauwkeuriger te zijn voor de ene groep dan voor de andere.
AI in de gaten houden
Voor situaties met een hoge inzet, het vertrouwen van het algoritme in zijn eigen resultaat – zijn inschatting van hoe waarschijnlijk het is dat het systeem met het juiste antwoord kwam – is net zo belangrijk als het resultaat zelf. De mensen die de output van algoritmen ontvangen, moeten weten hoe serieus ze de resultaten moeten nemen, in plaats van aan te nemen dat het juist is omdat het een computer betrof.
Pas onlangs zijn onderzoekers begonnen met het ontwikkelen van manieren om te identificeren, veel minder proberen te repareren, ongelijkheden in algoritmen en data. Algoritmen kunnen worden geprogrammeerd om hun eigen tekortkomingen te herkennen - en die herkenning volgen met een verzoek aan een persoon om te helpen bij de taak.
Veel soorten AI-algoritmen berekenen al een intern betrouwbaarheidsniveau - een voorspelling van hoe goed het een bepaald stuk input heeft geanalyseerd. Bij gezichtsanalyse, veel AI-algoritmen hebben een lager vertrouwen op donkere gezichten en vrouwelijke gezichten dan voor blanke mannelijke gezichten. Het is onduidelijk in hoeverre de wetshandhaving hier rekening mee heeft gehouden bij het gebruik van deze algoritmen met hoge inzetten.
Het doel is dat de AI zelf de gebieden lokaliseert waar het voor verschillende groepen niet dezelfde nauwkeurigheid bereikt. Op deze ingangen de AI kan zijn beslissing uitstellen aan een menselijke moderator. Deze techniek is vooral geschikt voor context-zware taken zoals inhoudsmoderatie.
Moderators van menselijke inhoud kunnen de stroom afbeeldingen die op sociale-mediasites worden geplaatst, niet bijhouden. Maar AI-inhoudsmoderatie staat erom bekend geen rekening te houden met de context achter een bericht - discussies over seksuele geaardheid verkeerd identificeren als expliciete inhoud, of het identificeren van de Verklaring van Onafhankelijkheid als haatzaaiende uitlatingen. Dit kan ertoe leiden dat de ene demografische of politieke groep onnauwkeurig wordt gecensureerd boven de andere.
Om het beste van twee werelden te krijgen, ons onderzoek suggereert dat alle inhoud op een geautomatiseerde manier wordt gescoord, met behulp van dezelfde AI-methoden die tegenwoordig al gebruikelijk zijn. Vervolgens gebruikt onze aanpak nieuw voorgestelde technieken om automatisch potentiële ongelijkheden in de nauwkeurigheid van het algoritme op verschillende beschermde groepen mensen te lokaliseren, en om de beslissingen over bepaalde individuen over te dragen aan een mens. Als resultaat, het algoritme kan volledig onbevooroordeeld zijn over die mensen waarover het daadwerkelijk beslist. En mensen beslissen over die individuen waar algoritmische beslissingen onvermijdelijk vooringenomenheid zouden hebben veroorzaakt.
Deze benadering elimineert vooringenomenheid niet:het "concentreert" alleen het potentieel voor vooringenomenheid op een kleinere reeks beslissingen, die vervolgens door mensen worden behandeld, het gebruik van menselijk gezond verstand. De AI kan nog steeds het grootste deel van het besluitvormingswerk doen.
Dit is een demonstratie van een situatie waarin een AI-algoritme dat samenwerkt met een mens de voordelen en efficiëntie van de goede beslissingen van de AI kan plukken, zonder opgesloten te zitten in zijn slechte. Mensen hebben dan meer tijd om aan de vage, moeilijke beslissingen die cruciaal zijn voor het waarborgen van eerlijkheid en rechtvaardigheid.
Dit artikel is opnieuw gepubliceerd vanuit The Conversation onder een Creative Commons-licentie. Lees het originele artikel.
Wetenschap © https://nl.scienceaq.com