Wetenschap
Krediet:CC0 Publiek Domein
Nieuw onderzoek van de Universiteit van Waterloo heeft een manier gevonden om de mogelijkheden voor het begrijpen van gesproken vragen van home-entertainmentplatforms te verbeteren.
Het onderzoek, in samenwerking met de Universiteit van Maryland en Comcast Applied AI Research Lab, maakt gebruik van kunstmatige intelligentie (AI)-technologie om de meest natuurlijke, op spraak gebaseerde interacties met tv's tot nu toe te realiseren.
"Vandaag, we zijn eraan gewend geraakt om met intelligente agenten te praten die ons bieden - van Siri op een mobiele telefoon tot Alexa thuis. Waarom zouden we niet hetzelfde kunnen doen met tv's?" vroeg Jimmy Lin, een professor aan de Universiteit van Waterloo en David R. Cheriton Chair in de David R. Cheriton School of Computer Science.
"De Xfinity X1 van Comcast wil precies dat doen - het platform wordt geleverd met een 'spraakafstandsbediening' die gesproken vragen accepteert. Uw wens is het bevel - vertel uw tv om van kanaal te veranderen, vraag naar gratis kinderfilms, en zelfs over de weersvoorspelling."
Bij het aanpakken van het complexe probleem van het begrijpen van gesproken vragen, de onderzoekers kwamen op het idee om gebruik te maken van de nieuwste AI-technologie - een techniek die bekend staat als hiërarchische terugkerende neurale netwerken - om de context beter te modelleren en de nauwkeurigheid van het systeem te verbeteren.
In januari 2018, het nieuwe neurale netwerkmodel van de onderzoekers werd in productie genomen om vragen van echte live gebruikers te beantwoorden. In tegenstelling tot het vorige systeem, die werd verward door ongeveer acht procent van de vragen, het nieuwe model handelt de meeste van de zeer gecompliceerde vragen op de juiste manier af, gebruikerservaring aanzienlijk verbeteren.
"Als een kijker om 'Chicago Fire' vraagt, ' wat zowel naar een dramaserie als naar een voetbalteam verwijst, het systeem kan ontcijferen wat je echt wilt, "zei Lin. "Het bijzondere aan deze aanpak is dat we gebruik maken van context, zoals eerder bekeken programma's en favoriete kanalen, om resultaten te personaliseren, waardoor de nauwkeurigheid toeneemt."
De onderzoekers zijn begonnen met het ontwikkelen van een nog rijker model. De intuïtie is dat door het analyseren van vragen vanuit meerdere perspectieven, het systeem kan beter begrijpen wat de kijker zegt.
De krant, Multi-task leren met neurale netwerken voor gesproken zoekopdrachten begrip van entertainmentplatform, werd gepresenteerd op de 24e ACM SIGKDD International Conference on Knowledge Discovery &Data Mining die onlangs in het Verenigd Koninkrijk werd gehouden. Het onderzoek is uitgevoerd door Jinfeng Rao, een doctoraat afgestudeerd aan de Universiteit van Maryland, zijn adviseur Lin, en mentor Ferhan Ture, een onderzoeker bij Comcast Applied AI Research Lab.
Wetenschap © https://nl.scienceaq.com