science >> Wetenschap >  >> Elektronica

Robots besturen met hersengolven en handgebaren

Door hersenactiviteit te monitoren, het systeem kan in realtime detecteren of een persoon een fout opmerkt terwijl een robot een taak uitvoert. Krediet:MIT CSAIL

Robots dingen laten doen is niet eenvoudig:meestal moeten wetenschappers ze expliciet programmeren of ze laten begrijpen hoe mensen via taal communiceren.

Maar wat als we robots intuïtiever zouden kunnen besturen, alleen handgebaren en hersengolven gebruiken?

Een nieuw systeem onder leiding van onderzoekers van MIT's Computer Science and Artificial Intelligence Laboratory (CSAIL) wil precies dat doen, waardoor gebruikers robotfouten onmiddellijk kunnen corrigeren met niets meer dan hersensignalen en een vingerbeweging.

Voortbouwend op het eerdere werk van het team, gericht op eenvoudige binaire keuzeactiviteiten, het nieuwe werk breidt de reikwijdte uit naar meerkeuzetaken, het openen van nieuwe mogelijkheden voor hoe menselijke werknemers teams van robots kunnen beheren.

Door hersenactiviteit te monitoren, het systeem kan in realtime detecteren of een persoon een fout opmerkt terwijl een robot een taak uitvoert. Met behulp van een interface die spieractiviteit meet, de persoon kan dan handgebaren maken om door te bladeren en de juiste optie te selecteren die de robot moet uitvoeren.

Het team demonstreerde het systeem bij een taak waarbij een robot een boormachine naar een van de drie mogelijke doelen op het lichaam van een namaakvliegtuig verplaatst. belangrijk, ze lieten zien dat het systeem werkt op mensen die het nog nooit eerder heeft gezien, wat betekent dat organisaties het in de echte wereld kunnen implementeren zonder het op gebruikers te hoeven trainen.

"Dit werk dat EEG- en EMG-feedback combineert, maakt natuurlijke interacties tussen mens en robot mogelijk voor een bredere reeks toepassingen dan we hebben kunnen doen voordat we alleen EEG-feedback gebruikten, " zegt CSAIL-directeur Daniela Rus, die het werk begeleidde. "Door spierfeedback op te nemen, we kunnen gebaren gebruiken om de robot ruimtelijk te besturen, met veel meer nuance en specificiteit."

doctoraat kandidaat Joseph DelPreto was hoofdauteur van een paper over het project naast Rus, voormalig CSAIL-postdoctoraal medewerker Andres F. Salazar-Gomez, voormalig CSAIL-onderzoeker Stephanie Gil, onderzoekswetenschapper Ramin M. Hasani, en Boston University-professor Frank H. Guenther. De paper wordt volgende week gepresenteerd op de Robotics:Science and Systems (RSS)-conferentie in Pittsburgh.

Intuïtieve interactie tussen mens en robot

In het meeste eerdere werk, systemen konden over het algemeen alleen hersensignalen herkennen wanneer mensen zichzelf trainden om op zeer specifieke maar willekeurige manieren te 'denken' en wanneer het systeem op dergelijke signalen was getraind. Bijvoorbeeld, een menselijke operator moet mogelijk tijdens een trainingssessie naar verschillende lichtschermen kijken die overeenkomen met verschillende robottaken.

Niet verrassend, dergelijke benaderingen zijn voor mensen moeilijk betrouwbaar te hanteren, vooral als ze werken in gebieden zoals constructie of navigatie die al intense concentratie vereisen.

In de tussentijd, Het team van Rus maakte gebruik van de kracht van hersensignalen die 'error-related potentials' (ErrP's) worden genoemd. waarvan onderzoekers hebben vastgesteld dat ze van nature voorkomen wanneer mensen fouten opmerken. Als er een ErrP is, het systeem stopt zodat de gebruiker het kan corrigeren; als niet, het gaat door.

"Het mooie van deze aanpak is dat het niet nodig is om gebruikers te trainen om op een voorgeschreven manier te denken, " zegt DelPreto. "De machine past zich aan jou aan, en niet andersom."

Voor het project gebruikte het team "Baxter", een humanoïde robot van Rethink Robotics. Met menselijk toezicht, de robot ging van het kiezen van het juiste doel 70 procent van de tijd naar meer dan 97 procent van de tijd.

Om het systeem te creëren, maakte het team gebruik van de kracht van elektro-encefalografie (EEG) voor hersenactiviteit en elektromyografie (EMG) voor spieractiviteit, het plaatsen van een reeks elektroden op de hoofdhuid en onderarm van de gebruiker.

Beide statistieken hebben enkele individuele tekortkomingen:EEG-signalen zijn niet altijd betrouwbaar detecteerbaar, terwijl EMG-signalen soms moeilijk kunnen worden toegewezen aan bewegingen die specifieker zijn dan 'naar links of rechts gaan'. Het samenvoegen van de twee, echter, zorgt voor meer robuuste bio-sensing en maakt het mogelijk voor het systeem om zonder training aan nieuwe gebruikers te werken.

"Door zowel naar spier- als hersensignalen te kijken, we kunnen beginnen met het oppikken van de natuurlijke gebaren van een persoon, samen met hun snelle beslissingen over of er iets mis gaat, ", zegt DelPreto. "Hierdoor wordt communiceren met een robot meer als communiceren met een andere persoon."

Het team zegt dat ze zich kunnen voorstellen dat het systeem ooit nuttig zal zijn voor ouderen, of werknemers met taalstoornissen of beperkte mobiliteit.

"We willen weg van een wereld waarin mensen zich moeten aanpassen aan de beperkingen van machines, ", zegt Rus. "Een benadering als deze laat zien dat het heel goed mogelijk is om robotsystemen te ontwikkelen die een natuurlijker en intuïtiever verlengstuk van ons zijn."