Ook AI kan ‘hersenaandoeningen’ hebben

AI maakt dezelfde redeneerfouten als mensen met een hersenaandoening.

Onderzoekers aan de Universiteit van Tokio hebben ontdekt dat kunstmatige intelligentie (AI), zoals ChatGPT, soms taalfouten maakt die lijken op die van mensen met afasie, een hersenaandoening die communicatie bemoeilijkt. De wetenschappers kwamen hier achter door de manier waarop AI taal verwerkt te vergelijken met hersenactiviteit bij mensen met deze aandoening.

Afasie is een stoornis die vaak optreedt na een beroerte of hersenletsel en die het gebruik van taal belemmert. Een specifieke vorm, Wernicke-afasie, zorgt ervoor dat mensen vloeiend spreken, maar hun woorden kloppen niet altijd of zijn moeilijk te begrijpen. AI-systemen zoals ChatGPT doen iets vergelijkbaars: ze produceren vlotte antwoorden die overtuigend lijken, maar die soms onjuist of onsamenhangend zijn. Dit viel de onderzoekers op en zette hen aan het denken over mogelijke overeenkomsten.

Om dit te onderzoeken, gebruikten de wetenschappers een methode genaamd energielandschapsanalyse. Dat is een techniek uit de natuurkunde die laat zien hoe systemen veranderen, zoals een bal die over een heuvel rolt. Ze keken hiermee naar hersenactiviteit van mensen met afasie en naar de interne werking van AI-systemen. Wat ze vonden, was dat beide soms vastlopen in starre patronen. Bij AI leidt dit tot fouten in antwoorden, terwijl het bij mensen met afasie zorgt voor onsamenhangende taal.

De bevindingen kunnen nuttig zijn op twee gebieden. Voor hersenwetenschap biedt het een mogelijke manier om afasie beter te begrijpen of te herkennen aan de hand van hersenpatronen. Voor AI-ontwikkelaars kan het helpen om systemen te verbeteren, zodat ze minder vaak onbetrouwbare antwoorden geven. 

Bron: Universiteit van Tokio, Japan