science >> Wetenschap >  >> Elektronica

Eén les in alle talen

Vooruitgang in communicatietechnologie heeft een grote impact gehad op allerlei industrieën, maar misschien niet groter dan in het onderwijs. Nutsvoorzieningen, iedereen van over de hele wereld kan live luisteren naar een lezing van een Nobelprijswinnaar of credits verdienen aan de meest gerenommeerde universiteiten via internettoegang. Echter, de mogelijke informatie die kan worden verkregen door online kijken en luisteren, gaat verloren als het publiek de taal van de docent niet begrijpt. Om dit probleem op te lossen, wetenschappers van het Nara Institute of Science and Technology (NAIST), Japan, presenteerde een oplossing met nieuwe machine learning op de 240e bijeenkomst van de Special Interest Group of Natural Language Processing, Information Processing Society of Japan (IPSJ SIG-NL).

Machinevertaalsystemen hebben het opmerkelijk eenvoudig gemaakt om in het buitenland de weg te vragen. Soms, de systemen kunnen grappige en onschuldige fouten maken, maar over het algemeen, ze bereiken coherente communicatie, tenminste voor korte uitwisselingen slechts een zin of twee lang. In het geval van een presentatie die langer dan een uur kan duren, zoals een academische lezing, ze zijn veel minder robuust.

"NAIST heeft 20 procent buitenlandse studenten en, terwijl het aantal Engelse lessen groeit, de opties die deze studenten hebben worden beperkt door hun Japanse vaardigheden, " legt NAIST-professor Satoshi Nakamura uit, die de studie leidde.

Nakamura's onderzoeksgroep verwierf 46,5 uur aan gearchiveerde collegevideo's van NAIST met hun transcripties en Engelse vertalingen, en ontwikkelde een op deep learning gebaseerd systeem om Japanse lezingstoespraken te transcriberen en vervolgens in het Engels te vertalen. Tijdens het bekijken van de video's, gebruikers zien ondertitels in het Japans en Engels die passen bij de toespraak van de docent.

Je zou verwachten dat de ideale output simultaanvertalingen zou zijn die gedaan zouden kunnen worden met live presentaties. Echter, live vertalingen beperken de verwerkingstijd en daarmee de nauwkeurigheid. "Omdat we video's met ondertiteling in de archieven plaatsen, we vonden betere vertalingen door ondertitels te maken met een langere verwerkingstijd, " hij zegt.

De gearchiveerde beelden die voor de evaluatie werden gebruikt, bestonden uit colleges uit robotica, spraakverwerking en software-engineering. interessant, het woordfoutenpercentage bij spraakherkenning correleerde met onvloeiendheid in de spraak van de docenten. Een andere factor van de verschillende foutenpercentages was de spreektijd zonder pauze. Het voor de training gebruikte corpus was nog onvoldoende en zou voor verdere verbeteringen verder ontwikkeld moeten worden.

"Japan wil zijn internationale studenten uitbreiden en NAIST heeft een geweldige kans om een ​​leider te zijn in dit streven. Ons project zal niet alleen machinevertaling verbeteren, het zal ook knappe koppen naar het land brengen, " hij ging verder.