Artificiële intelligentie verovert de geneeskunde

In het kort

Scans en foto’s doorzoeken op tumoren is een belangrijke taak voor radiologen.

Met beeldherkenning bewijst artificiële intelligentie zijn nut in de sector.

De software moet nog een aantal cruciale tekortkomingen overwinnen.

Computers worden steeds beter in het analyseren van röntgenfoto’s en CT-scans. Radiologen voelen de hete adem van kunstmatige intelligentie in hun nek.

Bijna exact een jaar geleden slaagde een computer erin om vier van de beste professionele pokerspelers te verslaan in een toernooi No-Limit Texas Hold’em. Dat was indrukwekkend: omdat pokerspelers onvolledige informatie hebben en elkaar kunnen misleiden, is poker voor een computer complexer dan schaak of Go.
Aan de basis van die overwinning ligt artificiële intelligentie, een systeem dat computers toelaat om taken uit te voeren op een manier die wij mensen als intelligent beschouwen. Computerprogramma’s krijgen gigantische hoeveelheden data te verwerken. Met zelflerende algoritmes distilleren ze daar vervolgens zelf regels uit, die ze toepassen om taken op te lossen.

Vandaag vindt artificiële intelligentie steeds meer toepassing in medisch onderzoek. Bedrijven als IBM, Google en Philips investeren fors in de ontwikkeling van zelflerende algoritmes die toepassingen kunnen hebben in de medische zorg.

Het Amerikaanse wetenschappelijke tijdschrift IEEE Spectrum houdt een scorebord bij waarop het aangeeft wie de winnaar is in de denkbeeldige competitie tussen artificiële intelligentie en artsen van vlees en bloed. Intelligente software scoort momenteel al op twee vlakken beter dan artsen. Zowel bij het diagnosticeren van longontsteking als bij het voorspellen van autisme op basis van hersenscans staat het op kop. Artificiële intelligentie is volgens het blad net zo goed als de beste arts in staat hersenkanker en huidkanker op te sporen.

Katten- en röntgenfoto’s

De snelste ontwikkelingen vinden plaats op het terrein van de radiologie, het specialisme dat ziekten of letsels in het lichaam opspoort met röntgenfoto’s, CT-scans en MRI’s. Vandaag beroepen radiologen zich op artificiële intelligentie of deep learning om die beelden te bestuderen. Dat is een gevolg van een revolutie in computer vision, de capaciteit van software om objecten in beelden te herkennen en te classificeren.

In 2012 slaagde een door Alex Krizhevsky en Geoffrey Hinton (University of Toronto) ontwikkelde software erin de zogeheten Image-Net-competitie te winnen met een foutpercentage van minder dan 25 procent. Dat was een doorbraak. In die jaarlijkse wedstrijd moeten softwareprogramma’s katten, honden, vliegtuigen,  grasmaaiers en honderden andere objecten van elkaar onderscheiden in een collectie van online gevonden foto’s. Anno 2018 voltooien computers de Image-Net-uitdaging met minder dan 2 procent fouten.

Die vooruitgang is uitsluitend te danken aan zogenoemde diepe neurale netwerken. Het gaat om software die de werking van het centrale zenuwstelsel imiteert met lagen van onderling verbonden neuronen. Zo’n netwerk leert niet doordat het regels gedicteerd krijgt, maar door grote hoeveelheden data te analyseren. Hoe meer beelden de software heeft gezien van verschillende katten met verschillende kleuren en uit verschillende hoeken, hoe beter het in staat zal zijn één kat te vinden in een collectie van duizenden foto’s.

Waarom is dat zo belangrijk? Als zo’n deep learning-netwerk in staat is honden en katten van elkaar te onderscheiden, dan kun je het in principe ook trainen om afwijkingen op te sporen in röntgenfoto’s, CT-scans en MRI’s.

Goedkope tests

Bram van Ginneken, hoogleraar functionele beeldanalyse aan het Radboudumc in Nijmegen, is een pionier op het gebied van beeldherkenning in medische toepassingen. Nog voor neurale netwerken aan hun opmars begonnen, ontwikkelde hij samen met Delft Imaging Systems de CAD4TB (Computer Aided Detection for Tuberculosis). Dat is klassieke software die dient om op digitale longfoto’s te speuren naar de zeer besmettelijke ziekte tuberculose.

‘CAD4TB wordt vooral gebruikt in landen in Azië en Afrika. Daar komt tuberculose vaak voor, maar zijn er te weinig radiologen om de beelden te analyseren’, zegt Van Ginneken.

De software gaat mee met rijdende laboratoria zonder radiologen, maar met röntgenapparatuur. In zo’n lab kan getraind personeel dagelijks wel honderd tot tweehonderd röntgenfoto’s maken. De software heeft dan ongeveer een minuut nodig om te zien of de foto van een borstkas abnormaliteiten bevat die wijzen op tbc. Als het antwoord daarop positief is, volgt alsnog een sputumtest. Die kan definitief uitmaken of er tbc in de longen zit, maar is ook veel duurder.

Een labmedewerker in Ghana bestudeert een heatmap van de longen. Groene en gele vlekken wijzen op een risico op abnormaliteiten.

Volgens Van Ginneken is CAD4TB inmiddels net zo goed als een echte radioloog in het opsporen van tbc. Hij wijst erop dat beelden met de software analyseren sneller, betrouwbaarder en goedkoper gaat. ‘Het aantal ouderen stijgt, het aantal scans neemt toe. Radiologen moeten in steeds minder tijd meer beelden bekijken. Dat leidt tot fouten. Die kan je voorkomen als je computerondersteuning hebt.’ De radioloog kan ook sneller werken. De software neemt allerlei meettaken over, zoals uitrekenen hoe groot een tumor is of bepalen hoeveel een tumor is gegroeid door twee foto’s met elkaar te vergelijken.

Van Ginneken is de oprichter van Thirona, een bedrijf dat werkt aan software die naast tuberculose ook ouderdomsblindheid en kanker opspoort in beelden. Die software steunt eveneens op diepe neurale netwerken. Van Ginneken: ‘Programmeurs kiezen de neuralenetwerkarchitectuur die we willen gebruiken en hoe we die willen trainen. Maar wat de computer nu precies moet berekenen, dat zoekt hij zelf uit.’ De software traint dus zichzelf. Daarvoor zijn naast zeer krachtige computers ook gigantisch grote datasets nodig. In dit geval gaat het om duizenden röntgenfoto’s en CT-scans met bijbehorende informatie.

Thirona heeft inmiddels ook software ontwikkeld die via driedimensionale CT-scans de longen van patiënten met COPD (Chronic Obstructive Pulmonary Disease) analyseert. ‘Ziekenhuizen van over de hele wereld sturen ons CT-scans, en wij bekijken dan met de computer of hun patiënten in aanmerking komen voor een bepaalde behandeling’, zegt Van Ginneken. Na de test stuurt Thirona een rapport met een behandeladvies naar het ziekenhuis in kwestie. ‘De arts in het betreffende ziekenhuis neemt dan uiteindelijk de beslissing.’

Honderden tegenover tien

Twee jaar geleden zorgde Geoffrey Hinton voor veel beroering in de medische wereld. De geestelijke vader van de diepe neurale netwerken had immers verklaard dat het niet langer zin heeft om nieuwe radiologen op te leiden. Zelflerende algoritmes zullen het werk van radiologen niet alleen sneller, maar ook met minder fouten verrichten, aldus Hinton. Binnen afzienbare tijd konden radiologen ermee stoppen, was zijn conclusie.

Met die stelling wakkerde Hinton de hype rond artificiële intelligentie flink aan. Maar Bram van Ginneken weet zeker dat het zo’n vaart niet zal lopen. ‘Met zo’n uitspraak laat je enkel zien dat je niet echt begrijpt wat radiologen allemaal doen.’ Volgens Van Ginniken zoeken radiologen naar honderden aanwijzingen in de beelden waarmee ze werken. Softwareprogramma’s kunnen vandaag nog niet meer dan tien taken overnemen.

Nog een gebrek van software is dat hij niet in staat is de juistheid van beelden en data in twijfel te trekken. ‘Een radioloog kan bijvoorbeeld vaststellen dat er bewegingsartefacten in een scan zitten en dat er daarom een nieuwe scan nodig is’, zegt Van Ginneken. ‘Je kunt een lange lijst maken van redenen waarom een radioloog kan besluiten dat een nieuwe scan noodzakelijk is.’

Routinewerk

Ook Andrew Ng, een van de meest prominente experts op het gebied van artificiële intelligentie, probeert de overspannen verwachtingen enigszins te temperen. Hij schrijft dat diepe neurale netwerken ondanks alle hype nog niet meer doen dan het oplossen van eenvoudige problemen waarbij de netwerken de inputdata ‘A’ gebruiken om snel een simpele respons ‘B’ te genereren. In de praktijk betekent dat volgens Ng dat artificiële intelligentie voorlopig een erg beperkt nut heeft. Eigenlijk kan het enkel die mentale taken overnemen die een mens ook binnen een seconde uitvoert.

Nu voeren radiologen wel verschillende werkzaamheden uit die binnen Ng’s simpele input-A-leidt-naar-output-B-schema vallen. Van Ginneken noemt een voorbeeld waarbij A een röntgenfoto van een borstkas is en B het antwoord op de vraag ‘is er een knobbeltje zichtbaar?’ Die vraag kan een programma binnen een seconde beantwoorden.

Het probleem is dat de algoritmes niet echt kunnen redeneren over complexere problemen. Ze mogen dan een kat herkennen op een plaatje, ze hebben daarmee nog geen idee wat een kat eigenlijk is. Daarvoor moet artificiële intelligentie zich eerst nog verder ontwikkelen.

In de nabije toekomst moeten zelflerende algoritmes vooral dienen om eenvoudige taken van radiologen over te nemen. Artificiële intelligentie kan het werk van de radioloog ondersteunen en vereenvoudigen. Al zijn ook daar nog problemen. Want wat als software en radioloog tot verschillende conclusies komen? ‘Een deep learning-netwerk heeft als nadeel dat er een bepaald oordeel uitkomt, maar dat de gebruiker niet weet hoe de computer tot dat oordeel komt’, zegt Van Ginniken. ‘De software signaleert dat er iets abnormaals is, maar zegt er niet bij waarom hij dat vindt.’

Deskundigen voorspellen dat artificiële intelligentie veel routineus denkwerk van mensen zal overnemen. Doemdenkers zien daardoor veel werk verdwijnen voor accountants, notarissen, ingenieurs en dus ook artsen. Al zullen al die programma’s wel eerst moeten aantonen dat ze betrouwbaar en veilig zijn. In de medische zorg draait het om levens. Het is geen spelletje poker.