science >> Wetenschap >  >> Elektronica

Een nieuw deep learning-model voor EEG-gebaseerde emotieherkenning

Krediet:Hwang et al.

Recente ontwikkelingen op het gebied van machinaal leren hebben de ontwikkeling mogelijk gemaakt van technieken om menselijke emoties te detecteren en te herkennen. Sommige van deze technieken werken door het analyseren van elektro-encefalografie (EEG) signalen, die in wezen opnames zijn van de elektrische activiteit van de hersenen die zijn verzameld op de hoofdhuid van een persoon.

De meeste op EEG gebaseerde emotieclassificatiemethoden die in de afgelopen tien jaar zijn geïntroduceerd, maken gebruik van traditionele machine learning (ML) technieken zoals support vector machine (SVM) modellen, omdat deze modellen minder trainingsmonsters nodig hebben en er nog steeds een gebrek is aan grootschalige EEG-datasets. Onlangs, echter, onderzoekers hebben verschillende nieuwe datasets met EEG-hersenopnames samengesteld en vrijgegeven.

Het vrijgeven van deze datasets opent spannende nieuwe mogelijkheden voor op EEG gebaseerde emotieherkenning, omdat ze kunnen worden gebruikt om diepgaande leermodellen te trainen die betere prestaties leveren dan traditionele ML-technieken. Helaas, echter, de lage resolutie van EEG-signalen in deze datasets zou het trainen van deep-learningmodellen nogal moeilijk kunnen maken.

"Problemen met lage resolutie blijven een probleem voor op EEG gebaseerde emotieclassificatie, "Sunhee Hwang, een van de onderzoekers die het onderzoek heeft uitgevoerd, vertelde TechXplore. "We hebben een idee bedacht om dit probleem op te lossen, waarbij EEG-beelden met hoge resolutie worden gegenereerd."

Om de resolutie van beschikbare EEG-gegevens te verbeteren, Hwang en haar collega's genereerden eerst zogenaamde "topologiebehoudende differentiële entropiekenmerken" met behulp van de elektrodecoördinaten op het moment dat de gegevens werden verzameld. Vervolgens, ze ontwikkelden een convolutioneel neuraal netwerk (CNN) en trainden het op de bijgewerkte gegevens, het leren om drie algemene klassen van emoties in te schatten (d.w.z. positief, neutraal en negatief).

Krediet:Hwang et al.

"Eerdere methoden hebben de neiging om de topologie-informatie van EEG-functies te negeren, maar onze methode verbetert de EEG-representatie door de gegenereerde EEG-beelden met hoge resolutie te leren, " Hwang zei. "Onze methode herclustert de EEG-functies via de voorgestelde CNN, wat het effect van clustering mogelijk maakt om een ​​betere representatie te bereiken."

De onderzoekers trainden en evalueerden hun aanpak op de SEED-dataset, die 62-kanaals EEG-signalen bevat. Ze ontdekten dat hun methode emoties kon classificeren met een opmerkelijke gemiddelde nauwkeurigheid van 90,41 procent, beter presteren dan andere machine learning-technieken voor EEG-gebaseerde emotieherkenning.

"Als de EEG-signalen worden opgenomen van verschillende emotionele clips, de originele DE-functies kunnen niet worden geclusterd, "Hwang voegde toe. "We hebben onze methode ook toegepast op de taak om de waakzaamheid van een chauffeur te schatten om zijn kant-en-klare beschikbaarheid aan te tonen."

In de toekomst, de door Hwang en haar collega's voorgestelde methode zou de ontwikkeling van nieuwe op EEG gebaseerde hulpmiddelen voor emotieherkenning kunnen helpen, omdat het een haalbare oplossing introduceert voor het overwinnen van de problemen die verband houden met de lage resolutie van EEG-gegevens. Dezelfde benadering zou ook kunnen worden toegepast op andere diepgaande leermodellen voor de analyse van EEG-gegevens, zelfs die ontworpen voor iets anders dan het classificeren van menselijke emoties.

"Voor computervisietaken, grootschalige datasets maakten het enorme succes mogelijk van deep-learningmodellen voor beeldclassificatie, waarvan sommige verder reiken dan menselijke prestaties, "Hwang zei. "Ook, complexe voorbewerking van gegevens is niet langer nodig. In ons toekomstige werk, we hopen grootschalige EEG-datasets te genereren met behulp van een gegenereerd adversarial netwerk (GAN)."

© 2019 Wetenschap X Netwerk