Dankzij deep learning zien computers in een vingerknip wat telt – op medische scans, bewakingsbeelden en zoveel meer

Dankzij doorbraken in het oprukkende AI-werkveld van het zogeheten ‘deep learning’ kan de computer eindelijk heel wat beelden even goed interpreteren als de mens. Of zelfs beter.

Al dertig jaar lang proberen wetenschappers computervisie scherp te krijgen. Maar zelfs bij routinetaken als gezichtsherkenning op foto’s loopt het nog steeds weleens fout. Nu is er beterschap op komst. Dankzij doorbraken in het oprukkende AI-werkveld van het zogeheten ‘deep learning’ kan de computer eindelijk heel wat beelden even goed interpreteren als de mens. Of zelfs beter. Er zijn al een aantal toepassingen op de markt, en waarschijnlijk zal de technologie in een brede waaier van jobs de taken van de mens verlichten of zelfs helemaal overnemen. De computer zal alles kunnen van vrachtwagens besturen tot medische diagnosen aflezen uit scans.

Neurale netwerken

De sprong voorwaarts is te danken aan de zogeheten convolutionele neurale netwerken (CNN). De mogelijkheden van de techniek zijn indrukwekkend. Denk maar aan bijvoorbeeld afbeeldingen van dieren. Wij mensen kunnen makkelijk een kat van een hond onderscheiden, maar dankzij CNN kunnen computers veel beter verschillende rassen herkennen. Ze zijn beter in staat subtiele maar belangrijke patronen te herkennen en die te interpreteren.

Convolutionele neurale netwerken hoef je niet te programmeren om specifieke kenmerken te herkennen – de vorm en grootte van de oren van een dier, bijvoorbeeld. Ze leren die zelf op te merken. Als je een CNN een Mechelse herder wil leren te onderscheiden van een Duitse herder, dan begin je met duizenden dierenplaatjes, met daarbij ook die twee rassen. Net als de meeste deep learning-netwerken werken CNN’s in lagen. In de onderste leren ze eenvoudige vormen en omtrekken te herkennen. De hogere lagen zijn gericht op complexe, abstracte concepten. In dit geval gaat het om de kleinere details van oren, staart, tong, vacht, enzovoort. Eens een CNN ‘getraind’ is, weet het snel of er op een nieuw plaatje een relevant ras afgebeeld staat.

CNN’s zijn mogelijk geworden dankzij de verbluffende vooruitgang die wetenschappers de afgelopen tien jaar maakten in grafische processors en parallelle verwerking. Ook het internet speelt een sleutelrol: het voedt de onstilbare honger van CNN’s naar digitale beelden.

Bloed in beeld

Experts werken al aan computervisiesystemen met deep learning voor een scala aan toepassingen. De technologie herkent voetgangers en maakt zo de zelfrijdende auto veiliger. Verzekeringsmaatschappijen beginnen ze te gebruiken bij de vaststelling van schade aan auto’s. CNN’s helpen bewakingscamera’s om het gedrag van een mensenmenigte te lezen, wat openbare ruimten en luchthavens veiliger maakt. Voor de landbouw zijn er toepassingen om de gewasopbrengst te voorspellen, het waterniveau te monitoren en plantenziekten vroeg op te merken.

De impact van de techniek is het grootst in de geneeskunde. Computervisie kan deskundigen helpen sneller scans en weefselstalen te interpreteren, en kan kritieke informatie bieden wanneer menselijke deskundigheid ontbreekt – bij screening, diagnose, opvolging van de ziekteprogressie of respons op therapie. Zo heeft de Amerikaanse overheid eerder dit jaar een techniek goedgekeurd voor het visualiseren van de bloedcirculatie in het hart. De start-up Arterys wil die inzetten bij de diagnose van hartziekten.

Ook dit jaar hebben Sebastian Thrun (Stanford University) en zijn collega’s in vakblad Nature beschreven hoe hun CNN-systeem huidkanker even nauwkeurig onderscheidt als dermatologen. Volgens de onderzoekers zou je de toepassing in een app kunnen stoppen zodat iedereen met een smartphone die zou kunnen gebruiken, met als resultaat ‘goedkope universele toegang tot levensbelangrijke diagnostische zorg’. Er zijn ook systemen in de maak om aandoeningen te herkennen zoals diabetische retinopathie (een oorzaak van blindheid), beroertes, botbreuken en alzheimer.