AI kan niet zonder deze chips

Artificiële intelligentie is populairder dan ooit, en dat steunt op computerchips. AI heeft namelijk heel specifieke hardware nodig om de nodige rekenkracht te leveren. Naar zo’n chips gebeurt er vandaag veel onderzoek, en vloeit er erg veel geld. Dat dient deels om AI beter te doen werken, maar ook om de technologie groener te maken.

De gekste ideeën doen de ronde in de AI-wereld. Ondernemers Elon Musk en Jeff Bezos willen datacenters in de ruimte plaatsen om AI te ondersteunen. Supersonische straalmotoren worden ingezet om AI-datacenters van energie te voorzien. En de Amerikaanse president Trump kondigde begin 2025 aan dat hij vijfhonderd miljard dollar wil investeren in AI-datacenters, meer dan de Amerikaanse overheid investeerde in het Apollo-programma dat een man naar de maan stuurde.

De wereld zit momenteel in een AI-hausse, diensten zoals ChatGPT, Gemini en Midjourney zijn populairder dan ooit. Dat betekent dat er een grote vraag is naar de hardware die zulke systemen doet werken.

Eind oktober 2025 haalde het Amerikaanse bedrijf Nvidia, dat AI-chips bouwt, een waardering op de beurs van vijf biljoen dollar, waarmee ze het meest waardevolle bedrijf ter wereld werden. Volgens een studie van organisatieadviesbureau McKinsey uit de zomer van 2025 zou er tegen 2030 zeven biljoen dollar naar AI-infrastructuur gaan. Dat zien we ook in België. Eind vorig jaar kondigde Google aan dat het vijf miljard euro zou investeren in haar Belgische datacenters, onder andere om de toenemende vraag van AI aan te kunnen.

Van gamers naar AI

Waarom heeft AI zoveel specifieke hardware nodig? ‘Je hebt niet noodzakelijk aparte chips nodig voor AI’, verduidelijkt Marian Verhelst, professor aan de KU Leuven. ‘Je kan AI met een gewone CPU (Central Processing Unit, red.) doen werken. Maar het zal niet zo efficiënt gebeuren. AI herhaalt steeds opnieuw dezelfde, vrij simpele, berekeningen. Een CPU is daar niet voor gemaakt.’

Een CPU kan je zowat het brein van je computer of smartphone noemen. Het is een soort chip die heel goed is in diverse taken, van een e-mail sturen en op het web surfen tot een PowerPoint maken. Het doet berekeningen een voor een.

AI vraagt dat je simpele berekeningen steeds opnieuw herhaalt, op gigantisch veel data. Dat is vooral het geval voor zogenaamde neurale netwerken, de huidige dominante vorm van AI. Zo’n systeem moet je eerst trainen. Het neemt data, en wordt zo aangeleerd om een taak uit te voeren. Hier bouwt het systeem een neuraal netwerk op, dat bestaat uit heel wat lagen, waar er in elke laag kleine berekeningen gebeuren. Van zodra het model getraind is, moet het aan inferentie doen. Hier beantwoordt ChatGPT bijvoorbeeld je vraag, door de data van je vraag door dat gigantische netwerk aan lagen te laten gaan.

GPT-3 Da Vinci uit 2020, het laatste model van OpenAI waarvan ze dit officieel bevestigden, had 96 neurale lagen, met daarin 175 miljard parameters. Huidige modellen zouden volgens schattingen biljoenen aan parameters hebben.

Apparaten die de werking van het menselijk brein nabootsen, gemonteerd op een houder voor metingen. Credit: TU Eindhoven

Om dat efficiënt te doen, heb je een ander soort chip nodig. Dat is vandaag meestal een GPU ofwel Graphics Processing Unit, eigenlijk een grafische kaart. ‘Die werden oorspronkelijk gemaakt om beelden te genereren aan hoge snelheden, bijvoorbeeld om videogames te spelen’, zegt Verhelst. ‘Dat doen ze door de processor verschillende berekeningen tegelijk te laten doen, een voor elke pixel op het scherm.’

Het maken van computerbeelden is in die zin te vergelijken met AI-berekeningen. Daarom bleken GPU’s, die origineel bedoeld waren voor gamers, plots onmisbaar voor AI-modellen. ‘Dat heet parallellisatie’, zegt Verhelst. ‘Zo’n chip kan heel goed grafische of AI-berekeningen doen. Een mail sturen kan het dan weer niet.’

Daardoor zien we hoe Nvidia origineel begon als chipmaker voor gamers. ‘Nvidia heeft chance gehad’, vertelt Verhelst. ‘Hun chips pasten heel goed bij AI, ondanks dat ze er niet voor ontworpen waren. Daardoor maakten ze een hoge vlucht.’

Europese afhankelijkheid

Voorlopig domineren Amerikaanse bedrijven, en dan vooral Nvidia, de markt van de geavanceerde AI-chips. In Europa probeert ook Openchip mee te draaien, met hoofdkwartier in Barcelona. Ze ontwerpen hun eigen AI-chip, een proces dat deels plaatsvindt in het Wintercircus in Gent, waar hun Belgische team zich bevindt. ‘We zijn een van de enige bedrijven in Europa die een AI-chip maken en daarnaast ook software bouwen om die AI te trainen’, vertelt Steven Latré, Chief AI Officer bij Openchip.

Die combinatie van hardware en software is belangrijk voor hen. ‘Als je een complexe AI-applicatie wil aanbieden, dan vraagt dat veel kennis over hardware’, vertelt Latré. ‘Zeker als je het wil schalen naar tienduizenden gebruikers. Daarom bouwen we ook software, om dat proces makkelijker te maken.’

Daarnaast leggen ze een andere nadruk dan hun Amerikaanse tegenhangers. ‘Veiligheid is belangrijk voor ons’, zegt Latré. ‘AI wordt steeds meer gebruikt in sectoren zoals de gezondheidszorg en de financiële wereld. Dan wil je zeker zijn dat de erg privacygevoelige gegevens die je invoegt, veilig zijn. Tot op het hardwareniveau versleutelen wij die.’

Voor Latré is het ook belangrijk dat Europa een alternatief ontwikkelt. We mogen niet louter afhankelijk zijn van de Nvidia’s van deze wereld. ‘Chips zijn de motor van AI’, vertelt Latré. ‘Gezien de grote vraag naar AI-chips wordt het steeds moeilijker om er toegang toe te krijgen. Zeventig procent van de GPU’s staan in de VS, vergeleken met vijf procent in Europa. Veel data lekken zo naar de VS. In de toekomst zullen er misschien ook beperkingen komen op de uitvoer van die chips.’

‘Het internet steunt voornamelijk op glasvezelverbindingen. Nu proberen we dat ook op de chip te doen’

Is het realistisch dat Europa zo’n chips ontwikkelt, zeker gezien we stevig achterlopen? ‘Als het niet realistisch was, dan zou ik het niet doen’, lacht Latré. ‘Het is bijzonder ambitieus, dat beseffen we. Europa heeft echter veel troeven, misschien zelfs meer dan de VS. We doen hier erg vooruitstrevend onderzoek, bijvoorbeeld bij imec. De hele wereld komt naar Leuven om de volgende generatie chips te onderzoeken. Tot nu toe slagen we er echter niet in om dat te vertalen naar Europees leiderschap op commercieel gebied.’

De chip van Openchip moet er eind 2027 of begin 2028 zijn. ‘Dat lijkt nog een eeuwigheid als je kijkt hoe snel de technologie evolueert’, geeft Latré toe. ‘Maar we ontwerpen de chip modulair en met een sterke nadruk op software. Dat zal ervoor zorgen dat onze technologie niet achterloopt.’

Geheugenfile

AI heeft niet enkel andere soorten processoren, die de berekeningen uitvoeren, nodig. Ook geheugen verandert onder druk van AI. Zo vragen AI-berekeningen grote hoeveelheden data, die snel beschikbaar moeten zijn. ‘In de gebruikelijke architectuur van een computer zit de processor op een andere plek dan het geheugen’, legt Yoeri van de Burgt, professor aan de TU Eindhoven, uit. ‘Daar zit een elektrische verbinding tussen, waar voortdurend data over heen en weer wordt gestuurd. Dat wordt de Von Neumann bottleneck genoemd. Om al die berekeningen van AI te verwerken en op te slaan, ga je dus heen en weer, wat voor een soort file zorgt. Processoren staan dus soms gewoon stil.’

Die architectuur is voor gewone computertaken geen probleem. Het tempo van de berekeningen ligt niet hoog, wat tijd geeft om zaken in het geheugen op te zoeken. AI, met haar enorme aantallen berekeningen, loopt echter tegen de grenzen van het geheugen aan.

Een van de oplossingen voor die bottleneck is het geheugen en de processor samenvoegen, ofwel compute-in-memory. Een veld waaraan Van de Burgt werkt. ‘Je doet alles op één eenheid’, vertelt hij. ‘Dat is veel efficiënter.’

Voorlopig hebben we nog geen volwaardige compute-in-memory. Toch gaan we in die richting. De laatste generatie van Nvidia-chips plaatste het geheugen alvast dichter bij de processor. Tegelijk zet ook Google in op het verkleinen van die afstand. ‘Google ontwikkelt speciale AI-chips genaamd TPU’s of Tensor Processing Units voor AI-toepassingen’, zegt Van de Burgt. ‘Zij zitten tussen compute-in-memory en de traditionele architectuur van computers. Het geheugen zit dus dichter bij de processor.’

Een van de belangrijke drijvers achter compute-in-memory is dat het energie-efficiënter is, een heikel punt voor AI. ‘De energievraag van AI-systemen is erg hoog’, merkt Van de Burgt op. ‘Ze moeten efficiënter gemaakt worden. We kunnen niet meer doorgaan op deze weg, want dan is er over twintig jaar niet meer genoeg energie op aarde om AI-systemen te gebruiken.’

AI verbruikt namelijk steeds meer energie. Volgens een studie van het Lawrence Berkeley National Laboratory uit 2024 zouden AI-datacenters tegen 2028 twaalf procent van de Amerikaanse elektriciteit kunnen opgebruiken, vergeleken met 4,4 procent in 2023. Het International Energy Agency geeft aan dat de wereldwijde vraag naar energie voor datacenters zal verdubbelen tegen 2030. Meer efficiënte chips kunnen die vraag afbuigen.

Fotonica en supergeleiding

In Leuven, bij onderzoeksinstelling imec, werken ze eveneens aan nieuwe generaties AI-chips. Eén technologie die ze onderzoeken heet photonic computing. ‘Bandbreedte is een belangrijke beperking voor systemen als AI’, zegt Michael Peeters, Vice President Compute Technologies & Systems bij imec. ‘Een elektrisch circuit heeft een natuurlijke beperking van hoeveel data het kan doorsturen. Dat maakt dat de processoren soms stilstaan, want ze krijgen niet genoeg data.’

Schematische dwarsdoorsnede van een printplaat, ontworpen voor AI-verwerking op basis van supergeleiding. Credit: imec

Compute-in-memory probeert dat op te lossen. Een andere mogelijke oplossing ligt erin elektrische circuits te vervangen door optische. Lichtstralen die via een soort glasvezel gaan, worden dan gebruikt om data op de chip te verplaatsen. Licht kan namelijk veel sneller schakelen dan elektriciteit, en zo meer data doorsturen. ‘Dat is een zeer populair onderzoeksveld op dit moment’, legt Peeters uit. ‘We gebruiken glasvezel al om data door te sturen tussen computers. Het hele internet steunt voornamelijk op glasvezelverbindingen. Nu proberen we dat ook op de chip te doen.’

Dat klinkt logisch, maar er zijn ook uitdagingen. Elektrische signalen moeten op de chip elke keer omgezet worden naar optische signalen, en omgekeerd. Zulke transformaties zorgen voor verliezen. ‘De eerste generatie van die technologie wordt nu geïntroduceerd’, vertelt Peeters. ‘Dat zijn nog de eerste stappen, maar de markt versnelt wel. Tegen 2028 kan dit de standaard worden voor AI-toepassingen.’

Een andere, meer vooruitstrevende, technologie waaraan imec werkt is superconducting computing. Hier wordt supergeleiding, waarbij bepaalde materialen onder sommige omstandigheden geen elektrische weerstand tonen, gebruikt om efficiëntere computers te bouwen.

‘Daarin investeren we al vijf jaar’, zegt Peeters. ‘In een gewone chip heb je altijd verliezen. Stuur je een signaal van een transistor naar de andere, dan loopt dat over een elektrisch lijntje. Daar zit een weerstand op die voor verlies zorgt. Nu worden transistoren steeds kleiner. Die elektrische lijntjes moeten daarom ook kleiner worden. Dat verhoogt de weerstand. Vergelijk het met een tuinslang, hoe dunner die is, hoe moeilijker het water erdoor kan.’

AI aan de rand

AI-hardware betekent niet altijd een datacenter. Bij het AI-bedrijf ML6 uit Gent werken ze ook met AI-hardware. Ze zijn bijvoorbeeld partner van Nvidia. Een deel van hun werk concentreert zich aan de rand van het netwerk, ofwel de edge. Zo kan het nuttig zijn om AI-berekeningen zo dicht mogelijk bij de toepassing te doen, en ze niet naar een datacenter over te plaatsen.

‘De verbinding met de cloud is soms simpelweg te traag’, vertelt Matthias Feys, technisch directeur van ML6. ‘Als je data eerst naar een datacenter stuurt, waar de berekening gebeurt, dan zorgt dat voor een vertraging. Die wil je vermijden.’

Bij tapijtenproducent Balta laten ze bijvoorbeeld een machine die tapijten snijdt via AI zien waar ze moet snijden. Zo’n berekening mag geen vertraging oplopen, omdat de snede dan op de verkeerde plaats komt. Ook mag de machine niet uitvallen als de internetverbinding wegvalt. Daarom plaatsten ze een chip op de machine, die de gegevens kan verwerken.

Dat vraagt nog steeds specifieke AI-chips. Die zijn echter minder krachtig dan wat er naar datacenters gaat. ‘Voor edge hardware gebruiken we een minder krachtige GPU (Graphics Processing Unit of grafische kaart, red.)’, vertelt Feys. ‘De laatste generatie chips zijn doorgaans niet nodig in een fabriek.’

Supergeleiding zou een antwoord kunnen bieden. Toch slagen we er maar moeilijk in om dat op grote schaal praktisch te maken. Je moet om supergeleiding te krijgen bepaalde materialen erg koud houden. Dat is weinig praktisch om in elke computer te steken. ‘We maken stilaan vooruitgang met supergeleiding’, aldus Peeters. ‘Het grote probleem is om alles te miniaturiseren. We kunnen volgens dit principe al vrij grote chips maken die relatief weinig rekenkracht hebben. We proberen ze echter steeds kleiner en krachtiger te maken zodat ze in een compacte en efficiënte koelkast kunnen passen.’

Deze technologie zou rond 2035 klaar zijn voor de AI-markt, volgens imec, met eerste toepassingen rond 2030.

Peeters doet dat soort onderzoek niet alleen om ChatGPT beter te doen werken. Het is ook nodig voor het milieu. ‘Energie-efficiëntie is de voornaamste reden waarom wij dit doen’, besluit Peeters. ‘Het verbruik van AI-systemen is te groot. We moeten die curve aanpassen. Doen we dat niet, dan zal AI enorme hoeveelheden energie opslokken. We zouden massaal energie moeten opwekken, desnoods met gas- of kolencentrales. Niemand staat daarvoor te springen.’