Wetenschap
Krediet:Phonlamai-foto / Shutterstock
"Mijn excuses, Dat begreep ik niet helemaal." Iedereen die ooit heeft geprobeerd een dieper gesprek te voeren met een virtuele assistent als Siri, weet hoe frustrerend dat kan zijn. Ondanks het feit dat dergelijke AI-systemen steeds meer ons leven binnendringen, met bijna dagelijks nieuwe succesverhalen. AI's helpen nu niet alleen radiologen tumoren op te sporen, ze kunnen kattenafstotend werken en zelfs signalen van potentiële buitenaardse technologie vanuit de ruimte detecteren.
Maar als het gaat om fundamentele menselijke vaardigheden, zoals een goed gesprek, AI schiet tekort. Het kan gewoon niet de humor bieden, warmte en het vermogen om een samenhangend en persoonlijk rapport op te bouwen dat cruciaal is in menselijke gesprekken. Maar waarom is dat en zal het er ooit komen?
Chatbots hebben sinds hun prille begin een lange weg afgelegd, met Eliza van MIT in de jaren zestig. Eliza was gebaseerd op een reeks zorgvuldig opgestelde regels die de indruk zouden wekken een actieve luisteraar te zijn en een sessie met een psychotherapeut na te bootsen.
Systemen zoals Eliza waren goed in het geven van een verfijnde eerste indruk, maar waren er na een paar gesprekswisselingen gemakkelijk achter te komen. Dergelijke systemen zijn gebouwd op pogingen om zoveel mogelijk wereldkennis te verzamelen, en formaliseer het dan in concepten en hoe die zich tot elkaar verhouden. Concepten en relaties werden verder ingebouwd in grammatica en lexicons die zouden helpen bij het analyseren en genereren van natuurlijke taal uit intermediaire logische representaties. Bijvoorbeeld, wereldkennis kan feiten bevatten zoals "chocolade is eetbaar" en "rots is niet eetbaar".
Leren van gegevens
De huidige AI-systemen voor conversatie zijn anders omdat ze zich richten op open domeinconversaties - er is geen limiet aan het aantal onderwerpen, vragen of instructies die een mens kan stellen. Dit wordt voornamelijk bereikt door elke vorm van intermediaire representatie of expliciete kennisengineering volledig te vermijden. Met andere woorden, het succes van de huidige conversatie-AI is gebaseerd op het uitgangspunt dat het niets van de wereld weet en begrijpt.
Het basismodel voor diep leren dat ten grondslag ligt aan het meeste huidige werk op het gebied van natuurlijke taalverwerking, wordt een terugkerend neuraal netwerk genoemd. waarbij een model een uitvoerreeks van woorden voorspelt op basis van een invoerreeks woorden door middel van een uit gegevens af te leiden kansfunctie. Gezien de invoer van de gebruiker "Hoe gaat het?" het model kan bepalen dat een statistisch frequente reactie is:"Het gaat goed."
De kracht van deze modellen ligt gedeeltelijk in de eenvoud - door het vermijden van tussenliggende representaties, meer gegevens leiden doorgaans tot betere modellen en betere resultaten. Leren voor een AI lijkt erg op hoe we leren:een zeer grote trainingsdataset verwerken en vergelijken met bekende maar ongeziene data (testset). Op basis van hoe goed de AI presteert ten opzichte van de testset, Het voorspellende model van de AI wordt vervolgens aangepast om betere resultaten te krijgen voordat de test wordt herhaald.
Maar hoe bepaal je hoe goed het is? Je kunt kijken naar de grammatica van uitingen, hoe "menselijk" ze klinken, of de samenhang van een bijdrage in een opeenvolging van gesprekswisselingen. De kwaliteit van de output kan ook worden bepaald als een subjectieve beoordeling van hoe goed ze aan de verwachtingen voldoen. DeepDrumpf van MIT is een goed voorbeeld - een AI-systeem dat is getraind met behulp van gegevens van het Twitter-account van Donald Trump en dat griezelig net zo klinkt als hij, commentaar geven op een aantal onderwerpen, zoals gezondheidszorg, Dames, of immigratie.
Echter, problemen beginnen wanneer modellen "verkeerde" invoer ontvangen. Microsoft's Tay was een poging om een conversatie-AI te bouwen die geleidelijk zou "verbeteren" en menselijker zou worden door gesprekken op Twitter te voeren. Tay veranderde binnen 24 uur na zijn inzet van een filantroop in een politieke bullebak met een onsamenhangend en extremistisch wereldbeeld. Het werd al snel offline gehaald.
Zoals machines van ons leren, ze nemen ook onze tekortkomingen over - onze ideologieën, stemmingen en politieke opvattingen. Maar in tegenstelling tot ons, ze leren ze niet te controleren of te evalueren - ze koppelen alleen een invoerreeks aan een uitvoerreeks, zonder filter of moreel kompas.
Dit heeft, echter, ook als een voordeel afgeschilderd. Sommigen beweren dat de recente successen van IBM's Projectdebater, een AI die "dwingende, op bewijzen gebaseerde argumenten" kan bouwen over een bepaald onderwerp, komt door het gebrek aan vooringenomenheid en emotionele invloed. Om dit te doen, het zoekt gegevens op in een grote verzameling documenten en haalt er informatie uit om de tegenovergestelde mening te uiten van de persoon met wie het debatteert.
Volgende stappen
Maar zelfs als meer gegevens AI kunnen helpen om relevantere dingen te zeggen, zal het ooit echt menselijk klinken? Emoties zijn essentieel in menselijke gesprekken. Het herkennen van verdriet of geluk in de stem of zelfs sms van iemand anders is ongelooflijk belangrijk bij het afstemmen van onze eigen reactie of het maken van een oordeel over een situatie. Meestal moeten we tussen de regels door lezen.
Conversationele AI's zijn in wezen psychopaten, zonder gevoel of empathie. Dat wordt pijnlijk duidelijk als we voor de zevende keer ons klantnummer door de telefoon schreeuwen, in de hoop dat het systeem onze pijn zal herkennen en ons zal doorverbinden met een menselijke medewerker van de klantenservice.
evenzo, conversatie-AI's begrijpen humor of sarcasme meestal niet, die de meesten van ons cruciaal vinden voor een goed gesprek. Hoewel individuele programma's die zijn ontworpen om AI te leren sarcastische opmerkingen tussen een reeks zinnen te herkennen, enig succes hebben gehad, nog niemand is erin geslaagd om deze vaardigheid te integreren in een echte gespreks-AI.
Het is duidelijk dat de volgende stap voor conversationele AI's de integratie van deze en andere dergelijke "menselijke" functies is. Helaas, we hebben nog niet de technieken om dit succesvol te doen. En zelfs als we dat deden, het probleem blijft dat hoe meer we proberen in te bouwen in een systeem, hoe meer verwerkingskracht het vereist. Het kan dus nog even duren voordat we over de typen computers beschikken die dit mogelijk maken.
AI-systemen missen duidelijk nog steeds een dieper begrip van de betekenis van woorden, de politieke opvattingen die ze vertegenwoordigen, de overgebrachte emoties en de mogelijke impact van woorden. Dit zorgt ervoor dat ze een lange tijd verwijderd zijn van het echt menselijk klinken. En het kan zelfs nog langer duren voordat ze sociale metgezellen worden die ons echt begrijpen en een gesprek kunnen voeren in de menselijke zin van het woord.
Dit artikel is opnieuw gepubliceerd vanuit The Conversation onder een Creative Commons-licentie. Lees het originele artikel.
Wetenschap © https://nl.scienceaq.com