Hoe je brein onderscheid maakt tussen gekuch en dierengeluid

Ons brein maakt een onderscheid tussen de menselijke stem en omgevingsgeluid, zelfs als er inhoudelijk niets gezegd wordt. Amerikaans onderzoek toont hoe dat in zijn werk gaat.

Tijdens het onderzoek brachten de wetenschappers elektroden rechtstreeks op de hersenen van acht epilepsiepatiënten aan. De keuze voor epilepsiepatiënten is trouwens puur pragmatisch; de proefpersonen moesten al een hersenoperatie ondergaan. Hierna maten de onderzoekers gammagolven (hersengolven met een bepaalde frequentie, red.) in de primaire, secundaire en tertiaire auditieve cortex terwijl ze de participanten twee types van stimuli toedienden.

Primaire, secundaire of tertiaire context? De auditieve cortex uitgelegd

In de auditieve cortex zijn verschillende gebieden onder te verdelen, zoals de primaire auditieve cortex. Dat is eigenlijk het belangrijkste onderdeel, die verwerkt alle geluidsprikkels. Vanuit de primaire cortex gaan de prikkels dan naar de secundaire cortex, die ernaast ligt. Vervolgens gaan de prikkels naar de tertiaire, hogere auditieve cortex. Die gebieden staan in voor bijvoorbeeld de verwerking van taal, de verwerking van muziek, herkenning, enzovoort. Die gebieden zijn op hun beurt weer verbonden met frontale gebieden in de hersenen.

Het ging om natuurlijke geluiden (bijv. gefluit van vogels) en zowel betekenisvolle als niet-betekenisvolle geluiden geproduceerd door de menselijke stem. Onder dit laatste vallen fenomenen zoals muziek met zang en niet-talig gedrag zoals gelach, kuchen. “Deze methode is vrij uniek”, vertelt gehoorspecialist Marc Lammers van het UZA. “De operatiecontext stelt hen ertoe in staat om met elektroden direct op de hersenen heel gedetailleerde metingen te doen.”.

Uit het onderzoek bleek dat het planum temporalum, een deel van de secundaire auditieve cortex in de linkerhersenhelft, weinig onderscheid maakte tussen de twee types stimuli, terwijl ze in de tertiaire auditieve cortex wel duidelijk een verschil in de sterkte van de signalen zagen. De stemsignalen genereerden bovendien een sterkere reactie dan de omgevingsgeluiden, zelfs als die geen linguïstische betekenis bevatten. De resultaten liggen in de lijn van wat de wetenschappers hadden verwacht. “We hadden al een vermoeden dat dat die primaire en secundaire cortex een soort van verwerkingsstation zijn voor alle signalen en dan het van daaruit verder gaat naar gebieden zoals de supratemporal sulculus (deel van de tertiaire auditieve cortex, red.) die meer de spraak of muziek gaan verwerken.”, aldus Lammers.

Het onderzoek is vooral relevant voor de neurowetenschap zelf, maar zou ook gebruikt kunnen worden in de behandeling van autisme en gehoorstoornissen. Lammers vertelt: “Het is vooral een bevestiging van het belang van de verschillende onderdelen van de auditieve cortex die allemaal net naast elkaar liggen. Maar deze kennis kan ook helpen bij de diagnosestelling bij mensen met autisme of schizofrenie. Bij deze stoornissen is de spraakverwerking aangetast of ontbreekt ze volledig. Ook is het interessant voor het onderzoek naar gehoorherstel. We zouden nu bijvoorbeeld gerichter onderzoek kunnen doen naar hoe we de verschillende functies van de niveaus in de auditieve cortex kunnen herstellen.”.