‘Machines nemen betere morele beslissingen dan mensen’

29 september 2016 door Eos-redactie

Artificiële intelligentie kan helpen om ethische beslissingen te nemen, zegt filosoof Stephen Cave.

Welke voordelen hebben robots die morele beslissingen nemen?
‘Artificiële intelligentie die bijvoorbeeld medisch advies geeft, heeft ongelooflijk veel meer data om rekening mee te houden dan een arts. Gegevens over medicijnen, klinische studies, de slaagkans van een behandeling, mogelijke bijwerkingen, …’


Leidt dat tot betere morele beslissingen?
‘Daarvoor moeten we zorgen. Vroeger hoefden we ons die vraag niet te stellen, robots waren louter ‘domme krachten’. Nu komen ze uit hun schuilplaats. Denk aan de autonome auto. Die moeten we een zekere moraal meegeven. Stel, een zelfrijdende auto dreigt tegen een obstakel te rijden. Rijdt hij rechtdoor, dan sterven alle inzittenden. Wijkt hij uit naar links, dan sterft een fietser omdat hij geen helm draagt. Wijkt hij uit naar rechts, dan raakt een fietser met helm gewond. De keuze lijkt misschien simpel: kan je een aanrijding niet vermijden, kies dan voor het minste kwaad en rijd tegen de fietser met helm. Als we dit programmeren in alle autonome auto’s, wie wil dan nog een helm dragen? Laat je hem dan beter altijd kiezen voor fietsers zonder helm? Zo voeren we eigenlijk de doodstraf in voor fietsers die geen helm dragen.’


Als er iets misgaat door een ‘foute’ beslissing van een machine, wie krijgt dan de schuld? We kunnen een machine niet in de gevangenis stoppen.
‘Er is natuurlijk altijd iemand die de computer heeft geprogrammeerd. Al is het ook hier niet eenvoudig. Tot in de jaren 1980 waren machines voorspelbaar, ze deden waarvoor ze geprogrammeerd waren. Vandaag maken we zelflerende machines. We begrijpen niet waarom ze sommige dingen doen. Denk aan de artificiële intelligentie die medisch advies geeft. De computer raadt bijvoorbeeld aan om het been van de patiënt te amputeren. Begrijpt de arts dat advies niet, dan kan hij de computer niet vragen hoe hij tot die beslissing is gekomen. Hij weet wel dat de machine veel meer weet dan hij. Moet hij dan de machine vertrouwen of toch op zijn intuïtie afgaan?'


En?
‘We moeten die machines wel vertrouwen, want we bouwen ze omdat we denken dat ze het beter weten dan wij. Tegelijk mogen we daar niet te ver in doorslaan, er kan altijd iets misgaan. Waar die grens ligt, is een moeilijke vraag.’ (lg)