Boekinterview

‘Met AI kan de macht bij een kleine groep terechtkomen’

Vooruitgang danken we aan wetenschap en technologie, die de vruchten zijn van menselijke intelligentie. Hoe lang houdt deze stelling nog stand, nu artificiële intelligentie steeds betere resultaten voorlegt in tal van domeinen? Techniekfilosoof Lode Lauwaert stelt kritische vragen bij ongebreidelde AI.

Foto: Koen Broos

Nog voor ChatGPT eind 2022 stormenderhand de wereld veroverde, was Lode Lauwaert al bezorgd. De taalmodellen achter eerdere chatbots toonden zich niet altijd betrouwbaar - herinner u de ophef rond chatbot Tay van Microsoft in 2016. Maar ook hij was drie jaar geleden enthousiast. ‘In die eerste dagen na de introductie van ChatGPT voelde je dat er iets geweldig aan het gebeuren was. Een AI-systeem dat meer kan dan tekst vertalen of eenvoudige antwoorden geven, dat hadden we nog niet gezien’, zegt hij. Zoals het een filosoof betaamt, ging hij erover nadenken. Het resultaat lees je in het boek AI, wat niemand ons vertelt (ook ChatGPT niet).

Lode Lauwaert

Lode Lauwaert (1981) is hoogleraar techniekfilosofie aan het Hoger Instituut voor Wijsbegeerte van de KU Leuven, waar hij de leerstoel Ethics and AI bekleedt. Lauwaert studeerde psychologie en filosofie en was gastonderzoeker aan de universiteiten van Wenen, Stellenbosch en Boston. Eerder schreef hij het boek Wij, robots. Een filosofische blik op technologie en artificiële intelligentie.

Met ChatGPT maakten we ook kennis met het jargon rond AI, al blijft het voor de meesten een black box. Over welke AI heeft u het eigenlijk?

'Mensen moeten weten wat er mogelijk aankomt. Narrow AI kan maar één taak uitvoeren, zoals bijvoorbeeld vertalen, en bestaat al langer. Met ChatGPT zette de democratisering van AI zich in. Chatbots kunnen al meer: vertalen, maar ook teksten samenvatten, inkorten, opsplitsen enz. Artificiële Generale Intelligentie (AGI) verschilt van large language models zoals ChatGPT, Claude of Gemini doordat hij nog veel meer taken - twintig of vijfentwintig, de exacte hoeveelheid maakt niet uit - kan uitvoeren die economisch relevant zijn. Het niveau blijft wel dat van wat een gemiddelde mens presteert. Superintelligentie, een term die Nick Bostrom al in 2014 muntte, gaat nóg een stap verder. Die doet hetzelfde als AGI, maar dan op expertniveau, als het ware uitgevoerd door supermanagers, supervertalers en superwetenschappers. AGI en superintelligentie bestaan vandaag niet, maar zijn realistisch. Als je kijkt naar de spectaculaire ontwikkelingen in de afgelopen vijf jaar, waarom zou je dan binnen vijftig jaar geen superintelligentie hebben? Heel veel nauwe AI-systemen outperformen mensen nu al. De AI-revolutie is nog maar net begonnen.’

In de discussies over AI onderscheiden zich twee kampen. De techbubbel bestaat uit de ondernemers en ingenieurs en zijn positief, in de ethiekbubbel zitten vooral humane wetenschappers met een pak reserves. Is deze voorstelling te kort door de bocht?

‘De grenzen tussen beide groepen zijn niet zo duidelijk. In de ethiekbubbel zitten niet enkel filosofen en geïnspireerde humane wetenschappers, maar ook computerwetenschappers die bezorgd zijn over de huidige AI-toepassingen, zoals Timnit Gebru (de Ethiopisch-Amerikaanse Gebru werd ontslagen door Google voor haar kritiek op de taalmodellen, red.). In de techbubbel tref je de mensen aan die zich heel positief uitlaten over AI. Ze zijn vaak de makers ervan, ingenieurs en informatici die in het bedrijfsleven actief zijn en de logica van rationalisatie, automatisering en winstmaximalisatie volgen. Ze praten hoofdzakelijk over de voordelen. Er hangt een soort LinkedIn-sfeertje rond, altijd positief en niet al te kritisch.’

‘Rond de makers van AI hangt een soort LinkedIn-sfeertje. Ze zijn altijd positief en niet al te kritisch’

‘Ik zit eerder in een derde kamp, dat waarschuwt voor existentiële risico’s. Deze x-risk-bubbel is een bonter gezelschap. De leidende figuren zijn drie grote namen uit de computerwetenschappen: Geoffrey Hinton, die aan de basis ligt van de huidige AI, Yoshua Bengio en Stuart Russell. Mensen uit deze derde bubbel hebben oog voor de grotere gevaren, die ook letterlijk een grotere oppervlakte bestrijken. Het gaat dan niet over bias bij Amazon of over privacy, dat een cultuurgevoelige problematiek is, maar wel over fundamentele problemen, over lijden, ziekte en dood.’

‘Die derde bubbel verdient meer aandacht. Ik denk, en dat blijkt ook wel uit de interesse, dat veel mensen de intuïtie over de risico's delen en ik wil helpen om dat gevoel expliciet te maken. Ik positioneer mezelf dus in de x-risk-bubbel. Maar ik behoor evenzeer tot de eerste bubbel, want ik vind privacy een probleem, en ook tot de techbubbel, want ik erken de voordelen van AI. Zie het als een soort van Patrick Loobuyck-combinatiedenken (de Gentse moraalfilosoof schreef recent een boek over het overstijgen van hokjesdenken, red.).’

Het zijn geen gesloten clubjes neem ik aan?

‘Mmmja, er is echt wel polarisering. De cultuuroorlog in onze samenleving weerspiegelt zich ook in die thematiek. Ik ken mensen uit de ethiekbubbel die de derde bubbel haten. De posts van Timnit Gebru op sociale media over de existentiële risicobubbel zijn vaak agressief. Ze beweert dat de hedendaagse problemen, zoals bias bijvoorbeeld, overschaduwd worden door de aandacht voor toekomstige risico's. Haar aanname is dat die onwaarschijnlijk zijn. Voor de agressiviteit heb ik geen verklaring. Eigenlijk werken die clubjes als echokamers. Daarom noem ik ze ook bubbels. Ik krijg zelf ook heel verzekerde, bijna dogmatische reacties op bepaalde posts. Op de achtergrond speelde bij mij het idee of en hoe je van mening kunt veranderen. Met sociale media en echokamers lijkt dat moeilijk. Mijn boek is niet tegen deze of gene club. Ik hoop in ieder geval dat er geen vijandigheid ten aanzien van een bubbel uit spreekt.’

Twee risico's die u uitvoerig beschrijft zijn de verspreiding van nieuwe virussen en bacteriën en een nucleaire catastrofe. Waarom die twee, en zijn er dan geen andere risico's?

‘Pandemieën en nucleaire catastrofes komen weinig aan bod. Er zijn weinig mensen die de link leggen tussen atoomwapens en AI of tussen bacteriën en AI. Voor deze twee scenario's is trouwens geen superintelligentie nodig, narrow AI volstaat. Ik kon een hoofdstuk schrijven over bias, maar daar heb ik het wat mee gehad. Ook desinformatie zou een valabel thema kunnen zijn. Dat groeit uit tot een epistemisch probleem. Wat is waarheid en onwaarheid in tijden van deepfakes? Of jobverlies, al leert het verleden dat technologische revoluties ook tot jobcreatie kunnen leiden. Ik denk dat er met AI minder jobs verloren zullen gaan dan we denken.’

‘Burgers moeten mee de controle voeren, omdat de technologie grote implicaties heeft. Zeker als die door overheden wordt ingezet’

‘Als AGI er zou komen, dan loert het gevaar op machtsmisbruik om de hoek. In het Engels spreekt men van value lock-in, wat ik vertaal als waardenvergrendeling. Via AI kan een bepaalde waarde zich voor langere tijd als het ware in de samenleving opsluiten. Waardenvergrendeling hoeft niet slecht te zijn. In onze cultuur zijn vrijheid en autonomie heel belangrijke waarden, en het feit dat we vrij over auto's en mobiele telefoons beschikken versterken die enkel nog. Maar in het verleden zijn er ook voorbeelden van waardenvergrendeling die negatief en onwenselijk waren, zoals slavernij of apartheid. Het gevaar is niet alleen dat bepaalde waarden opnieuw ingang vinden, maar ook dat met AGI de macht daartoe bij één persoon of een kleine groep mensen komt te liggen. Zij kunnen specifieke waarden, al dan niet wenselijk, bewust of onbewust in die technologie pompen, waardoor ze zich verspreiden in de samenleving of op planetair niveau. Ze terug eruit halen is niet eenvoudig.’

Heb je het over Elon Musk en andere bigtechspelers? En is big tech wel een echte lobby, of eerder een spookbeeld?

‘Ik heb niet veel vertrouwen in Musk. AI kan machtsmisbruik versterken. In de discussie over AI vergeten we vaak de personen of bedrijven die de technologie ontwikkelen. Big tech is heel reëel. Op de inauguratie van president Trump begin dit jaar waren ze allen aanwezig, de CEO's van Meta, Google en OpenAI. Ze kennen elkaar goed, en hebben toegang tot de groten der aarde. In de VS bestaat er al langer een draaideur tussen politiek en economie. Ook onder Obama werkten mensen van Google nauw samen met de politiek en vice versa.’

Hoe kunnen we vermijden dat een persoon, bedrijf of zelfs een staat zich AI toe-eigent?

‘Machtsconcentratie en dus ook het machtsmisbruik zijn potentiële problemen die we moeten tegengaan. Mijn insteek is doorgaans liberaal, maar hier pleit ik contra-intuïtief om AGI te nationaliseren of te internationaliseren. Dit gaat niet over narrow AI, maar over AGI. Laat ons de controle van AGI - als die er ooit komt - onderbrengen bij een consortium van beleidsmakers, academici, techmensen, bedrijfsleiders maar ook burgers. Waarom ook burgers? Omdat de technologie planetair zou kunnen worden ingezet, met grote gevolgen, zonder dat veel mensen daarover kunnen beslissen. Burgers moeten mee de controle voeren, omdat de technologie grote implicaties heeft. Zeker als die door overheden wordt ingezet. In Vlaanderen past bijvoorbeeld de VDAB al AI toe.’

Hoe ziet u de toekomst? Een werktitel van uw boek luidde AI is de nieuwe atoombom... 

‘Ik ben in de eerste plaats een geweldige techno-optimist. De samenleving is er op veel vlakken geweldig op vooruitgegaan, vooral dankzij wetenschap en technologie. Niettemin zijn er ook risico's, en die zijn ernstig genoeg om te signaleren. Ik doe niet aan doemdenken, maar trek wel aan de alarmbel of fungeer als rookmelder. Er zijn genoeg middelen om er iets aan te doen. Noem het realistisch, niet-naïef vooruitgangsoptimisme.’

AI, wat niemand ons vertelt (ook ChatGPT niet)
Lode Lauwaert
Uitgeverij Prometheus