science >> Wetenschap >  >> Elektronica

Rapport van AI-waakhonden scheurt emotietechnologie

Krediet:CC0 Publiek Domein

De mening dat de erkenning van invloed moet worden uitgesloten van belangrijke beslissingen klinkt als een boze kreet... maar wat betekent het allemaal? Praten wordt verhit, eigenlijk, over de impact van kunstmatige intelligentie op ons dagelijks leven op manieren die net zoveel zorgen als verwondering veroorzaken.

"Beïnvloed herkenning." In tech-taal vertegenwoordigt een subset van gezichtsherkenning. Affectherkenning heeft alles te maken met emotionele AI, en het gaat over kunstmatige intelligentie die wordt gebruikt om uitdrukkingen te analyseren met als doel menselijke emoties te identificeren.

Interpreteer je de uitdrukkingen op je gezicht? Hoe degelijk zijn die interpretaties?

In een onderzoekscentrum van de New York University, een rapport herinnert zijn lezers eraan dat dit niet de beste manier is om te begrijpen hoe mensen zich voelen. De mening van het rapport is dat, eenvoudigweg, emotie-detecterende AI mag niet zomaar worden aangenomen dat het in staat is om belangrijke oproepen te doen in situaties die ernstige gevolgen kunnen hebben voor mensen:bij werving, bij het volgen van leerlingen in de klas, in klantenservice en als laatste, maar niet in het minst, in het strafrecht.

Er was behoefte om te onderzoeken waarom entiteiten in de eerste plaats gebrekkige technologie gebruiken om beoordelingen over karakter te maken op basis van fysieke verschijning. Dit is met name zorgwekkend in contexten zoals werkgelegenheid, opleiding, en strafrecht.

Het AI Now Institute van de New York University heeft de AI Now 2019-rapport . De focus van het instituut ligt op de maatschappelijke implicaties van kunstmatige intelligentie. Het instituut merkt op dat AI-systemen passende waarborgen of verantwoordingsstructuren moeten hebben, en het instituut maakt zich zorgen als dit niet het geval is.

Hun rapport uit 2019 kijkt naar het zakelijke gebruik van expressie-analyse zoals het momenteel is bij het nemen van beslissingen.

Reuters wees erop dat dit het vierde jaarverslag van AI Now over AI-tools is. De beoordeling onderzoekt de risico's van potentieel schadelijke AI-technologie en de menselijke impact.

Wat betreft het rapport van The Institute zei dat affectherkenning "een bijzonder aandachtspunt is van groeiende bezorgdheid in 2019 - niet alleen omdat het vooroordelen kan coderen, maar omdat het geen solide wetenschappelijke basis heeft om nauwkeurige of zelfs geldige resultaten te garanderen."

Het rapport was krachtig geformuleerd:"Regelgevers zouden het gebruik van affectherkenning moeten verbieden bij belangrijke beslissingen die van invloed zijn op het leven van mensen en de toegang tot kansen. Tot die tijd, AI-bedrijven moeten stoppen met het inzetten ervan."

De auteurs zijn niet alleen bezig met persoonlijk; mening; zij beoordeelden onderzoek.

"Gezien de omstreden wetenschappelijke basis van technologie voor affectherkenning - een subklasse van gezichtsherkenning die beweert dingen te detecteren zoals persoonlijkheid, emoties, mentale gezondheid, en andere binnenlandse staten - het mag geen rol spelen bij belangrijke beslissingen over mensenlevens, zoals wie wordt geïnterviewd of aangenomen voor een baan, de prijs van de verzekering, pijnbeoordelingen van patiënten, of leerlingprestaties op school."

Het rapport ging zelfs nog verder en zei dat regeringen "specifiek het gebruik van affectherkenning in besluitvormingsprocessen met hoge belangen moeten verbieden".

De rand 's James Vincent zou niet verbaasd zijn over deze bevinding. Terug in juli, hij rapporteerde over onderzoek dat keek naar tekortkomingen van technologie om emoties nauwkeurig te lezen via gezichtsuitdrukkingen; simpel gezegd, je kunt AI niet vertrouwen om dit te doen. Hij citeerde een professor in de psychologie aan de Northeastern University. "Bedrijven kunnen zeggen wat ze willen, maar de gegevens zijn duidelijk."

Vincent deed destijds verslag van een literatuuronderzoek in opdracht van de Vereniging voor Psychologische Wetenschappen, en vijf wetenschappers onderzochten het bewijs:"Emotionele expressies heroverwogen:uitdagingen om emotie af te leiden uit menselijke gezichtsbewegingen.". Vincent zei:"Het kostte ze twee jaar om de gegevens te onderzoeken, met de beoordeling op zoek naar meer dan 1, 000 verschillende onderzoeken."

Omdat emoties op een enorme verscheidenheid aan manieren worden uitgedrukt, het is moeilijk om op betrouwbare wijze af te leiden hoe iemand zich voelt uit een eenvoudige reeks gezichtsbewegingen. De auteurs zeiden dat technologiebedrijven misschien een fundamenteel verkeerde vraag stellen. Pogingen om de interne toestand van mensen uit gezichtsbewegingen af ​​te lezen zonder rekening te houden met verschillende aspecten van de context, waren op zijn best onvolledig en in het slechtste geval niet valide.

Terwijl in het rapport werd opgeroepen tot een verbod, het is misschien redelijk om te bedenken dat de bezorgdheid indruist tegen het naïeve niveau van vertrouwen in een technologie die nog moet worden verbeterd. Het gebied van emotionele analyse moet het beter doen.

Volgens De rand artikel, een professor in de psychologie aan de Northeastern University geloofde dat misschien wel de belangrijkste conclusie van de recensie was dat "we op een complexere manier over emoties moeten nadenken."

Leo Kelton, BBC nieuws, In de tussentijd, gaf het standpunt weer van mede-oprichter van AI Now, prof. Kate Crawford, die zei dat studies aanzienlijke variabiliteit hadden aangetoond in termen van het aantal emotionele toestanden en de manier waarop mensen deze uitdrukken.

Reuters meldde tijdens zijn telefonische vergadering voorafgaand aan de publicatie van het rapport:"AI Now-oprichters Kate Crawford en Meredith Whittaker zeiden dat het schadelijke gebruik van AI toeneemt ondanks brede consensus over ethische principes, omdat er geen gevolgen zijn voor het schenden ervan." In het huidige rapport staat dat AI-enabled affectherkenning nog steeds op grote schaal wordt ingezet in omgevingen, van klaslokalen tot sollicitatiegesprekken. Het was informerende bepalingen over wie productief is, maar vaak zonder medeweten van de mensen.

Het AI Now-rapport bevatte specifieke voorbeelden van bedrijven die zaken doen in emotiedetectieproducten. Een zo'n bedrijf verkoopt video-analysecamera's die gezichten classificeren als woede voelen, angst, en verdriet, verkocht aan casino's, restaurants, detailhandelaren, makelaars in onroerend goed, en de horeca, .

Een ander voorbeeld was een bedrijf met AI-gestuurde videogebaseerde tools om aan te bevelen welke kandidaten een bedrijf zou moeten interviewen. De algoritmen zijn ontworpen om emotionele betrokkenheid in micro-uitdrukkingen van sollicitanten te detecteren.

Het rapport omvatte een bedrijf dat hoofdbanden maakte die de aandachtsniveaus van studenten zouden detecteren en kwantificeren door middel van detectie van hersenactiviteit. (Het AI-rapport negeerde niet om toe te voegen dat onderzoeken "aanzienlijke risico's schetsen die samenhangen met de inzet van emotionele AI in de klas.")

© 2019 Wetenschap X Netwerk