Hoorapparaat luistert hersenen af

Er wordt een nieuw hoorapparaat ontwikkeld dat kan uitzoeken naar wie je aan het luisteren bent, en zich daaraan aanpast.

Er wordt, o.a. aan de Columbia University, een nieuw hoorapparaat ontwikkeld dat kan uitzoeken naar wie je aan het luisteren bent, en zich daaraan aanpast.

Wanneer verschillende mensen tegelijk spreken, bijvoorbeeld in een café of een andere drukke plaats, proberen we de stem van één van die personen te volgen en de rest te negeren. Onderzoekers kunnen meten dat onze hersenen dit doen, en ook wiens stem we proberen te volgen. Dit kan gebeuren door het meten van hersengolven. Hersencellen, of neuronen, sturen elektrische signalen; als een heel aantal neuronen dit gelijktijdig doen (alsof ze allemaal in de maat op een trommel slaan), dan is de elektrische activiteit sterk en regelmatig genoeg om gemeten te worden, ook buiten de hersenen.

Het idee achter de nieuwe ontwikkelingen is dat de activiteit in onze hersenen gemeten wordt en dan wordt vergeleken met de stemmen uit de omgeving. Dit laatste gebeurt door software die is gekoppeld aan het hoorapparaat. Daarna wordt de stem waarnaar we luisteren versterkt, en de anderen ietwat gedempt. De huidige generatie hoorapparaten is reeds goed in het versterken van menselijke stemmen en het dempen van achtergrondlawaai, maar het selectief versterken van de menselijke stem waar je naar luistert, zou een grote vooruitgang betekenen. Immers, op dit ogenblik kan het met een hoorapparaat nog moeilijk zijn om een conversatie te volgen wanneer op de achtergrond andere mensen aan het praten zijn.

De onderzoekers zijn er nog niet helemaal. Ze kunnen al hersenactiviteit volgen en decoderen, maar enkel met apparatuur die in de schedel is ingeplant (dit gebeurt bij zware epilepsiepatiënten, terwijl ze hersenchirurgie ondergaan in het kader van hun behandeling). Er zal nu ook apparatuur worden ontwikkeld die adequate metingen zou kunnen doen vanop het oppervlakte van de schedel.

 

Referentie: Cong Han, James O’Sullivan, Yi Luo, Jose Herrero, Ashesh D. Mehta, Nima Mesgarani. Speaker-independent auditory attention decoding without access to clean speech sources. Science Advances, 2019; 5 (5): eaav6134 DOI: 10.1126/sciadv.aav6134