Wetenschap
Krediet:New Jersey Institute of Technology
Een van de blijvende puzzels van gehoorverlies is de afname in het vermogen van een persoon om te bepalen waar een geluid vandaan komt, een belangrijk overlevingsvermogen waarmee dieren - van hagedissen tot mensen - de locatie van gevaar kunnen lokaliseren, prooidieren en groepsleden. In de moderne tijd, het vinden van een verloren mobiele telefoon met behulp van de applicatie "Find My Device, "om te ontdekken dat het onder een kussen van een bank was gegleden, vertrouwt op minieme verschillen in het rinkelende geluid dat de oren bereikt.
In tegenstelling tot andere zintuiglijke waarnemingen, zoals voelen waar regendruppels de huid raken of hoge tonen van lage kunnen onderscheiden op de piano, de richting van geluiden moet worden berekend; de hersenen schatten ze door het verschil in aankomsttijd over de twee oren te verwerken, het zogenaamde interaurale tijdsverschil (ITD). Een al lang bestaande consensus onder biomedische ingenieurs is dat mensen geluiden lokaliseren met een schema dat lijkt op een ruimtelijke kaart of kompas, met neuronen die van links naar rechts zijn uitgelijnd en die afzonderlijk vuren wanneer ze worden geactiveerd door een geluid dat uit een bepaalde hoek komt - zeg, op 30 graden naar links van het midden van het hoofd.
Maar in onderzoek dat deze maand in het tijdschrift is gepubliceerd eLife , Antje Ihlefeld, directeur van NJIT's Neural Engineering for Speech and Hearing Laboratory, stelt een ander model voor op basis van een meer dynamische neurale code. De ontdekking biedt nieuwe hoop, ze zegt, dat ingenieurs ooit hoortoestellen kunnen bedenken, nu notoir slecht in het herstellen van de geluidsrichting, om dit tekort te corrigeren.
"Als er een statische kaart in de hersenen is die degradeert en niet kan worden gerepareerd, dat een enorme hindernis vormt. Het betekent dat mensen waarschijnlijk niet "opnieuw kunnen leren" om geluiden goed te lokaliseren. Maar als dit perceptuele vermogen gebaseerd is op een dynamische neurale code, het geeft ons meer hoop om de hersenen van mensen om te leren, " merkt Ihlefeld op. "We zouden hoortoestellen en cochleaire implantaten niet alleen programmeren om het gehoorverlies van een individu te compenseren, maar ook op basis van hoe goed die persoon zich kon aanpassen aan het gebruik van signalen van hun apparaten. Dit is vooral belangrijk voor situaties met achtergrondgeluid, waar geen enkel hoortoestel momenteel de mogelijkheid kan herstellen om het doelgeluid te onderscheiden. We weten dat het geven van aanwijzingen om de geluidsrichting te herstellen echt zou helpen."
Wat haar tot deze conclusie leidde, is een reis van wetenschappelijk detectivewerk die begon met een gesprek met Robert Shapley, een eminente neurofysioloog aan de NYU die opmerkte over een eigenaardigheid van menselijke binoculaire dieptewaarneming - het vermogen om te bepalen hoe ver een visueel object is - dat ook afhangt van een berekening die de invoer vergelijkt die door beide ogen wordt ontvangen. Shapley merkte op dat deze afstandsschattingen systematisch minder nauwkeurig zijn voor stimuli met een laag contrast (beelden die moeilijker te onderscheiden zijn van hun omgeving) dan voor stimuli met een hoog contrast.
Ihlefeld en Shapley vroegen zich af of hetzelfde neurale principe van toepassing was op geluidslokalisatie:of het minder nauwkeurig is voor zachtere geluiden dan voor luidere. Maar dit zou afwijken van de heersende ruimtelijke kaarttheorie, bekend als het Jeffress-model, wat inhoudt dat geluiden van alle volumes op dezelfde manier worden verwerkt - en daarom worden waargenomen. Fysiologen, die voorstellen dat zoogdieren vertrouwen op een dynamischer neuraal model, ben het er al lang mee oneens. Ze zijn van mening dat zoogdierneuronen de neiging hebben om met verschillende snelheden te vuren, afhankelijk van richtingssignalen en dat de hersenen deze snelheden vervolgens vergelijken tussen sets neuronen om dynamisch een kaart van de geluidsomgeving op te bouwen.
"De uitdaging bij het bewijzen of weerleggen van deze theorieën is dat we niet direct naar de neurale code voor deze waarnemingen kunnen kijken omdat de relevante neuronen zich in de menselijke hersenstam bevinden, dus we kunnen er geen afbeeldingen met hoge resolutie van krijgen, " zegt ze. "Maar we hadden het vermoeden dat de twee modellen verschillende voorspellingen van de geluidslocatie zouden geven op een heel laag volume."
Ze zochten in de literatuur naar bewijs en vonden slechts twee papieren die hadden opgenomen van neuraal weefsel bij deze lage geluiden. Eén studie was bij kerkuilen - een soort waarvan gedacht werd dat ze afhankelijk was van het Jeffress-model, gebaseerd op opnames met hoge resolutie in het hersenweefsel van de vogels - en de andere studie was bij een zoogdier, de resusaap, een dier waarvan gedacht werd dat het dynamische snelheidscodering gebruikt. Vervolgens reconstrueerden ze zorgvuldig de schieteigenschappen van de neuronen die in deze oude onderzoeken waren geregistreerd en gebruikten hun reconstructies om de geluidsrichting te schatten, zowel als een functie van ITD als volume.
"We hadden verwacht dat voor de kerkuilgegevens, het zou echt niet uit moeten maken hoe hard een bron is - de voorspelde geluidsrichting zou echt nauwkeurig moeten zijn, ongeacht het geluidsvolume - en we konden dat bevestigen. Echter, wat we voor de aapgegevens vonden, is dat de voorspelde geluidsrichting afhing van zowel ITD als volume, " zei ze. "We hebben toen in de menselijke literatuur gezocht naar studies over waargenomen geluidsrichting als een functie van ITD, waarvan ook werd gedacht dat het niet afhankelijk was van het volume, maar verrassend genoeg geen bewijs gevonden om dit lang gekoesterde geloof te ondersteunen."
Zij en haar afstudeerder, Nima Alamatsaz, schakelde vervolgens vrijwilligers in op de NJIT-campus om hun hypothese te testen, geluiden gebruiken om te testen hoe het volume van invloed is op waar mensen denken dat een geluid opkomt.
"We hebben een extreem stille, geluidsafgeschermde ruimte met gespecialiseerde gekalibreerde apparatuur waarmee we geluiden met hoge precisie aan onze vrijwilligers konden presenteren en konden opnemen waar ze het geluid waarnamen. En zeker genoeg, mensen identificeerden de zachtere geluiden verkeerd, " merkt Alamatsaz op.
"Daten, we zijn niet in staat om geluidslokalisatieberekeningen in de hersenen precies te beschrijven, ", voegt Ihlefeld toe. "Echter, de huidige resultaten zijn niet in overeenstemming met het idee dat het menselijk brein vertrouwt op een Jeffress-achtige berekening. In plaats daarvan, we lijken te vertrouwen op een iets minder nauwkeurig mechanisme.
Breder, zeggen de onderzoekers, hun studies wijzen op directe parallellen in gehoor en visuele waarneming die tot nu toe over het hoofd werden gezien en die suggereren dat op snelheid gebaseerde codering een fundamentele onderliggende operatie is bij het berekenen van ruimtelijke dimensies van twee sensorische inputs.
"Omdat ons werk verbindende principes tussen de twee zintuigen ontdekt, we verwachten dat het geïnteresseerde publiek cognitieve wetenschappers zal omvatten, fysiologen en computationele modelleringsexperts in zowel gehoor als zicht, " Ihlefeld zegt. "Het is fascinerend om te vergelijken hoe de hersenen de informatie die onze ogen en oren bereikt gebruiken om de wereld om ons heen te begrijpen en om te ontdekken dat twee schijnbaar niet-verbonden waarnemingen - zien en horen - in feite toch vrij gelijkaardig kunnen zijn ."
Wetenschap © https://nl.scienceaq.com