Ogen aan het stuur

29 december 2015 door Eos-redactie

Software die de beweging van onze ogen vertaalt in commando’s om apparaten aan te sturen, kan een zegen zijn voor mensen die verlamd zijn.

Software die de beweging van onze ogen vertaalt in commando’s om apparaten aan te sturen, kan een zegen zijn voor mensen die verlamd zijn.


Eerder dit jaar gebruikte Erik Sorto, een tot aan de nek verlamde man, zijn gedachten om een robotarm een biertje naar zijn mond te laten brengen. De media reageerden razend enthousiast, het was inderdaad een indrukwekkende prestatie. Probleem is dat de gebruikte technologie – in het brein van Sorto was een chip geïmplanteerd – duur en invasief is, en vaak om een maandenlange training vraagt. Nog lastiger is dat slechts weinig verlamde mensen het psychische en fysieke profiel hebben dat voor de technologische ingreep nodig is.


Er moet een betere oplossing zijn. In plaats van een directe link tussen de elektrische activiteit van het brein en machines, wil Aldo Faisal – als geassocieerd hoogleraar neurotechnologie verbonden aan Imperial College Londen – oogbewegingen gebruiken om rolstoelen, computers en videogames te besturen. Met eenvoudige, gewoon in de handel verkrijgbare camera’s voor het spelen van videogames, ontwierp Faisal samen met zijn collega’s een soort bril die de oogbewegingen van de gebruiker registreert en die data aan een computer levert. Software vertaalt de data in commando’s voor een machine. Bijna iedereen kan de technologie gebruiken, ook mensen met geamputeerde ledematen, verlamden en patiënten met parkinson, multiple sclerose of musculaire dystrofie. Het systeem bouwen kost amper vijfenveertig euro. Tijdens een wetenschappelijke tentoonstelling slaagde een ruime meerderheid van duizenden vrijwilligers er al na vijftien seconden in zonder enige instructie het computerspel Pong te spelen.


Wetenschappers weten al lang dat de ogen iemands intenties kunnen verraden – we kunnen zien waar iemand heen wil, wat hij wil doen, met wie hij contact wil. Zich baserend op zeventig jaar neurowetenschappelijk onderzoek van de oogbewegingen, schreven Faisal en zijn collega’s algoritmes die een blik omzetten in een commando voor een rolstoel, een knipoog in een muisklik of de beweging van een pupil in een beweging van een joystick. Om intenties te kunnen voorspellen, zijn de algoritmes afhankelijk van training met levensechte data. Die worden verkregen door de oogbewegingen van vrijwilligers te registreren terwijl ze met een joystick een rolstoel besturen of een robotarm controleren. Geleidelijk aan leert de software het verschil zien tussen bijvoorbeeld de manier waarop mensen naar een kop kijken om de inhoud ervan te beoordelen, of met de bedoeling de kop echt op te pakken om eruit te drinken.


Vooraleer Faisal om het even welk op zijn toepassing gebaseerd medisch apparaat kan commercialiseren, moet hij fondsen voor klinische tests weten te verzamelen. Intussen kreeg zijn onderzoeksgroep van de Europese Unie vier miljoen euro voor het ontwerpen van robotische exoskeletten die verlamde personen kunnen besturen met de door de groep ontwikkelde eyetracking software. ‘Ik wil zien wat ik kan doen om mensen weer te laten bewegen,’ zegt Faysal. ‘Dat is mijn focus.’ (rn)