science >> Wetenschap >  >> Elektronica

AlterEgo opent stille lente van computerverbindingen via wearable

Krediet:MIT, Jimmy Day/Creative Commons, Naamsvermelding 4.0 Internationaal

OKE, we begrijpen het. Experts op het gebied van kunstmatige intelligentie maken van jaar tot jaar een snelle clip, maand tot maand, laten zien wat hun onderzoek kan beloven. Maar zou het kunnen dat we dat stadium in mens-computerinteractie hebben bereikt, waar je een vraag kunt bedenken —— zonder een woord te zeggen — en de machine zal antwoorden met het antwoord?

Hoeveel kost dit allemaal? Wat is het weer in Deventer?

Project AlterEgo geeft aan dat we in zo'n spannende no-talk-fase zijn beland.

"AlterEgo is een niet-invasieve, draagbaar, perifere neurale interface waarmee mensen in natuurlijke taal met machines kunnen praten, kunstmatige intelligentie assistenten, Diensten, en andere mensen zonder enige stem - zonder hun mond te openen, en zonder extern waarneembare bewegingen - gewoon door woorden intern te articuleren."

De feedback van de gebruiker is via audio, via beengeleiding. De gebruiker kan informatiestromen van en naar het computerapparaat verzenden en ontvangen.

Hoe doe je het? Hoe zend je woorden uit als je niet hardop spreekt? Dit is door middel van interne vocalisatie, neuromusculaire signalen van de tong en de achterkant van het gehemelte vertaald naar computercommando's.

OK, u praat in stilte met uw machine, maar het is geen brunchact in Vegas. Dit is je tweede zelf. Het is meer alsof je tegen jezelf praat. "AlterEgo probeert mensen en computers te combineren, zodat computers, het internet, en AI zou in de menselijke persoonlijkheid weven als een intern 'tweede zelf' en de menselijke cognitie en vaardigheden vergroten, " volgens de projectpagina.

Het is niet je gedachten lezen als gevolg van je gewoon denken. Dit is stille spraak.

"Stil spreken is een bewuste poging om een ​​woord te zeggen, gekenmerkt door subtiele bewegingen van interne spraakorganen zonder het daadwerkelijk te uiten. Het proces resulteert in signalen van je hersenen naar je spieren die worden opgepikt als neuromusculaire signalen en verwerkt door ons apparaat, ", aldus de projectsite.

De technologie wordt gedeeltelijk beschreven als via beengeleidingsaudio. De wearable van de gebruiker is een bone conduction hoofdtelefoon. Signalen worden doorgegeven via een 'sticker, zei Kwarts , gedragen langs de nek en kaaklijn van de gebruiker, en de antwoorden worden via een oortje gevoerd.

Wie zit er achter dit project? Degenen die onlangs op een TED-conferentie waren, kwamen erachter; hij is Arnav Kapur van het MIT Media Lab, een onderzoeker op het gebied van intelligentievergroting.

Anne Quito rapporteerde voor Kwarts en merkte vorig jaar een eerder prototype op. "Hoewel het prototype van AlterEgo uit 2018 de drager eruit liet zien alsof hij een hoofdletsel had, " Kapur zei dat ze gefocust zijn op het verfijnen van wearables tot het punt dat ze onmerkbaar worden. "Inderdaad, het ontwerp dat hij liet zien op TED was bijna niet te detecteren, afgezien van de draad die uit Erics oor kwam, ' zei Quito.

Wanneer kunnen we dit apparaat als een product zien? Niet binnenkort.

"Dit is een universitair onderzoeksproject. We blijven het systeem verder ontwikkelen en focussen op verbeteringen zoals het verminderen van het aantal benodigde elektroden, het ontwerpen van meer sociaal aanvaardbare vormfactoren, het verbeteren van de neurale netwerken die de stille spraak herkennen, en werken aan het verminderen van de benodigde training en maatwerk, tenslotte, het ontwerpen van de end-to-end gebruikerservaring en applicaties, " verklaarde de projectriem. "Alle hoop op commercialisering is voorbarig."

Dat, echter, weerhoudt het team er niet van om toepassingen uit de echte wereld te stellen. Als Snel bedrijf commentaar, implicaties dat deze headset interne spraaktrillingen kan lezen zijn enorm. Verder dan stil vragen hoe het weer is in een andere stad. Of hoeveel de boodschappen tot nu toe kosten.

Eén zo'n begunstigde van AlterEgo kan een persoon zijn die niet meer kan praten vanwege ALS, keelkanker of beroerte. De persoon met een spraakstoornis kon realtime communiceren.

In het grotere geheel, het MIT-team draagt ​​zijn steentje bij om interessante gebieden in technologie te zaaien, noem ze "cognitieve verbetering, " of "intelligentieverbetering." Als ingenieurs zoveel tijd besteden aan het slim maken van onze schermen, hoe zit het met ons? Dat is de vraag van Kapur. "In plaats van die doos slimmer te maken, hoe verbeter je mensen zodat ze creatiever en meer verbonden zijn?"

Samen met Kapur aan dit project werken Pattie Maes, een professor, die de onderzoeksgroep Fluid Interfaces van Media Lab leidt, en Eric Wadkins, machine learning leiden. Hij sloot zich aan bij de Fluid Interfaces-groep om te werken aan het creëren van een continu subvocaal spraakherkenningssysteem voor het project.

© 2019 Wetenschap X Netwerk