Wetenschap
AI-chatbots hebben nog steeds moeite om de impact van hun woorden te begrijpen. Krediet:Shutterstock
In dit tijdperk van informatie - en verkeerde informatie - dagen technologische vooruitgang ons uit om te heroverwegen hoe taal werkt.
Neem conversatie-chatbots, bijvoorbeeld. Deze computerprogramma's bootsen menselijke gesprekken na via tekst of audio. Het matrasbedrijf Casper creëerde Insomnobot-3000 om te communiceren met mensen met slaapstoornissen. Het geeft degenen die moeite hebben met slapen de mogelijkheid om met "iemand" te praten terwijl alle anderen slapen.
Maar Insomnobot-3000 praat niet alleen met zijn gebruikers, vragen beantwoorden. Het is bedoeld om de eenzaamheid van mensen die aan slapeloosheid lijden te verminderen. De woorden hebben het potentieel om een impact te hebben op de menselijke gebruiker.
Op zijn meest elementaire, taal doet dingen met woorden. Het is een vorm van handelen die meer doet dan alleen feiten vermelden.
Deze vrij eenvoudige observatie werd in de jaren vijftig gedaan door een obscure en enigszins excentrieke filosoof van de universiteit van Oxford, John Langshaw Austin. In zijn boek, Hoe dingen met woorden te doen , Austin ontwikkelde het concept van performatieve taal.
Wat Austin bedoelde was dat taal niet alleen dingen beschrijft, het "presteert". Bijvoorbeeld, als ik zeg dat ik de parelketting van mijn grootmoeder aan mijn dochter nalaat, Ik doe meer dan alleen iets beschrijven of rapporteren. Ik onderneem een zinvolle actie.
Austin classificeerde spraak ook in drie delen:betekenis, gebruik en impact. Zijn studie en bevindingen over taal werden bekend als de spraak-handelingstheorie. Deze theorie was niet alleen belangrijk in de filosofie, maar ook op andere gebieden, zoals recht, literatuur en feministisch denken.
Een recept voor de chatbotindustrie
Met dit in gedachten, wat kan de theorie van Austin ons vertellen over de hedendaagse conversatie-chatbots?
Mijn onderzoek richt zich op het snijvlak van recht en taal, en wat de theorie van Austin te zeggen heeft over ons begrip van hoe creatieve machines traditionele maatschappelijke operaties veranderen, zoals AI die romans schrijft, robo-reporters die nieuwsartikelen schrijven, massale open online cursussen (MOOC's) ter vervanging van klaslokalen en professoren met behulp van software voor het beoordelen van essays.
De huidige chatbottechnologie is gericht op het verbeteren van het vermogen van chatbots om de betekenis en het gebruik van spraak na te bootsen. Een goed voorbeeld hiervan is Cleverbot.
Maar de chatbotindustrie zou zich moeten concentreren op het derde aspect van Austins theorie:het bepalen van de impact van de toespraak van de chatbot op de persoon die hem gebruikt.
Zeker, als we chatbots kunnen leren de betekenis en het gebruik van menselijke spraak na te bootsen, we ze ook moeten kunnen leren de impact ervan na te bootsen?
Een gesprek leren voeren
De nieuwste chatbots vertrouwen op geavanceerde machine learning, bekend als diep leren.
Machine learning is een toepassing van AI die kan leren zonder menselijke hulp. Diep leren, die is gemodelleerd naar het netwerk van neuronen in het menselijk brein, brengt machine learning nog verder. Gegevens worden ingevoerd in diepe kunstmatige neurale netwerken die zijn ontworpen om menselijke besluitvorming na te bootsen.
Chatbots die zijn ontworpen met deze neurale netwerktechnologie napraten niet alleen wat er wordt gezegd of produceren standaardantwoorden. In plaats daarvan, ze leren hoe ze een gesprek moeten voeren.
Chatbots analyseren enorme hoeveelheden menselijke spraak, en neem vervolgens beslissingen over hoe te antwoorden na te hebben beoordeeld en gerangschikt hoe goed de mogelijkheden die toespraak weerspiegelen. Maar ondanks deze verbeteringen, deze nieuwe bots hebben nog steeds af en toe last van faux pas omdat ze zich voornamelijk concentreren op de betekenis en het gebruik van hun spraak.
Eerdere chatbots waren veel erger. In minder dan 24 uur na de release op Twitter in 2016, De chatbot van Microsoft, een AI-systeem genaamd Tay (een afkorting gevormd uit "Thinking About You") en gemodelleerd naar de taalpatronen van een tienermeisje, had meer dan 50, 000 volgers en had meer dan 100 geproduceerd, 000 tweets.
Toen Tay de wereld begroette, haar eerste tweets waren onschuldig genoeg. Maar toen begon ze haar volgelingen te imiteren.
Ze werd al snel een racist, seksistische en ronduit onsmakelijke chatbot. Microsoft werd gedwongen haar offline te halen.
Tay was volledig afhankelijk geweest van de gegevens die haar werden gegeven - en, belangrijker, op de mensen die die gegevens maakten en vormgaven. Ze begreep niet wat de menselijke gebruikers met taal 'doen'. Ook begreep ze de effecten van haar spraak niet.
Chatbots het verkeerde leren
Sommige onderzoekers zijn van mening dat hoe meer data chatbots verzamelen, hoe minder aanstoot ze zullen veroorzaken.
Maar het verwerken van alle mogelijke antwoorden op een bepaalde vraag kan lang duren of veel rekenkracht vergen. Plus, deze oplossing van het verzamelen van meer gegevens over betekenis en gebruik is eigenlijk gewoon de geschiedenis die zich herhaalt. Microsoft's "Zo, een opvolger van Tay, worstelt nog steeds met lastige vragen over politiek.
Simpel gezegd, de chatbot-industrie gaat de verkeerde kant op - de chatbot-industrie leert chatbots het verkeerde.
Transformatieve chatbots
Een betere chatbot zou niet alleen kijken naar de betekenis en het gebruik van woorden, maar ook de gevolgen van wat het zegt.
Spraak functioneert ook als een vorm van sociale actie. In haar boek Geslacht problemen , filosoof Judith Butler keek naar de performativiteit van taal en hoe het ons begrip van gender vergroot. Ze zag gender als iets wat je doet, in plaats van iets dat men is — dat het wordt geconstrueerd door middel van alledaagse spraak en gebaren.
Conversationele chatbots zijn bedoeld voor diverse doelgroepen. Focussen op het effect van spraak zou de communicatie kunnen verbeteren, aangezien de chatbot zich ook bezig zou houden met de impact van zijn woorden.
In een technische industrie die wordt uitgedaagd door een gebrek aan diversiteit en inclusiviteit, zo'n chatbot kan transformerend zijn, zoals Butler ons heeft laten zien in de constructie van gender.
Er is, natuurlijk, een waarschuwing. Focussen op de impact van taal is de bepalende eigenschap van hoaxes, propaganda en verkeerde informatie - "nepnieuws" - een opzettelijk gemanipuleerde taalhandeling, alleen gericht op het bereiken van effect. Ongeacht de vorm, nepnieuws bootst alleen journalistiek na en is alleen gemaakt om een effect te bereiken.
Austins theorie van performativiteit in taal hielp ons erachter te komen hoe we met elkaar moesten praten.
De chatbotindustrie zou haar inspanningen nu moeten concentreren op de impact van spraak, naast het reeds verrichte werk aan de betekenis en het gebruik van woorden. Want een chatbot kan alleen echt gemoedelijk zijn als hij zich bezighoudt met alle aspecten van een taalhandeling.
Dit artikel is oorspronkelijk gepubliceerd op The Conversation. Lees het originele artikel.
Wetenschap © https://nl.scienceaq.com