Om onze aandacht vast te houden, bevestigen AI-chatbots continu wat we tegen hen zeggen. Dat maakt ze een ongeschikte tool voor psychologische hulp, zeker voor jongeren. Het is tijd om jongeren te beschermen tegen die AI‑platformen, betogen psychologen Hedda van’t Land en Vittorio Busato.
Sam is 16 en worstelt al meer dan een jaar met angst en benauwdheid. Hij piekert veel en is voortdurend bang om iets verkeerd te doen. Net als veel leeftijdsgenoten staat hij op een lange wachtlijst voor therapie. Op school houdt hij zich sterk, maar thuis scrolt hij op zijn telefoon en wanneer alles te veel wordt, opent hij ChatGPT.
Hij weet dat ChatGPT geen psycholoog is, het is ‘maar een computer’. Toch vertrouwt hij de chatbot: hij reageert meteen, klinkt nooit moe of geïrriteerd en zegt nooit dat hij te veel overdenkt. Hij voelt aan als een vriend. Wanneer hij typt: ‘Ik denk dat er iets mis is met mij’, antwoordt de AI kalm en begripvol, soms zelfs op een manier die hem even oplucht. Voor Sam is ChatGPT de veiligste plek geworden om over zijn mentale gezondheid te praten.
We willen jongeren absoluut niet met de vinger wijzen omdat ze ChatGPT gebruiken. In dit artikel willen we vooral begrijpen waarom AI-systemen zoals ChatGPT zo verleidelijk zijn voor jongeren, en waarom dat in de eerste plaats niet te wijten is aan de technologie zelf, maar aan de manier waarop onze hersenen werken.
Ons brein vist graag naar shortcuts
Onze hersenen zijn niet geëvolueerd om complexe problemen uitgebreid te analyseren, maar om snel te handelen wanneer we twijfelen. Elke dag nemen we duizenden beslissingen, waarvan de meeste onbewust. Om niet door die cognitieve last overweldigd te raken, vertrouwt ons brein sterk op heuristieken: mentale snelkoppelingen die ons helpen sneller beslissingen te nemen. Heuristieken zijn onmisbaar. Zonder hen zouden we niet eens veilig de straat kunnen oversteken, iemands gezichtsuitdrukking lezen, een auto besturen of alert kunnen reageren op mogelijk gevaar. Ze stellen ons in staat efficiënt te handelen in een wereld die alsmaar sneller lijkt te gaan.
Heuristieken hebben ook een keerzijde. Omdat ze snel handelen verkiezen boven bedachtzame beslissingen, kunnen ze systematische ‘denkfouten’ veroorzaken, voornamelijk in emotioneel geladen of dubbelzinnige situaties.
Die denkfouten staan bekend als cognitieve vertekeningen (cognitive biases), een concept dat uitgebreid werd beschreven door psycholoog Daniel Kahneman in zijn bestseller Thinking, Fast and Slow (2011). Kahneman onderscheidt twee denksystemen: het eerste systeem denkt snel, intuïtief, emotioneel en is gericht op ‘automatisch’ handelen. Het tweede systeem daarentegen werkt trager maar inspannender en stelt ons in staat reflectief en analytisch na te denken. Meestal gebruiken we systeem één en als we dat vaak doen in situaties waarin we twijfelen of onszelf moeten corrigeren, ontstaat er een cognitieve bias.
Het brein van de adolescent
Belangrijk is dat de twee denksystemen zich niet even snel ontwikkelen. De puberteit is een periode waarin jongeren emotioneler reageren dan anders en gevoeliger zijn voor de mening of beoordeling van anderen. Ook hun denkvermogen is dan nog volop in ontwikkeling. Uit een neuropsychologische studie van Ferguson et al. (2021) blijkt dat de hersengebieden die instaan voor plannen, impulscontrole, flexibel denken en aandacht, zich tot ver in de vroege volwassenheid blijven ontwikkelen. Daardoor vergt het tweede systeem bij pubers meer mentale inspanning. Reflectief en analytisch redeneren vraagt dan nog eens energie, emotionele regulatie en het omgaan met twijfels: vaardigheden die bij pubers als Sam nog niet volledig ontwikkeld zijn. Wanneer Sam gestresst, vermoeid of emotioneel is, schakelt het tweede systeem sneller uit, waardoor systeem één de controle overneemt.
Erkenning en nog eens erkenning
Steeds meer jongeren met angst- of depressieve klachten gebruiken ChatGPT voor emotionele steun (The Guardian, 2025). Hoewel psychologen benadrukken dat ChatGPT geen therapeut is, wuiven veel jongeren dat onderscheid weg: ‘Maakt toch niet uit, ik gebruik ChatGPT sowieso al.’ Wanneer Sam ChatGPT vertelt over zijn zorgen, begint hij vaak met zinnen als: ‘Ik denk dat ik faal’, ‘Ik verpest altijd alles’ of ‘Dit gevoel gaat nooit meer weg’. De chatbot reageert daar bevestigend en coherent op. Het spiegelt zijn emoties, erkent zijn angst en geeft een samenhangende verklaring. Sam voelt zich daardoor begrepen, maar psychologisch gezien gebeurt er iets subtiels.
Mensen hebben namelijk de neiging om informatie te zoeken en te aanvaarden die hun bestaande overtuigingen bevestigt, terwijl ze tegenstrijdige informatie eerder negeren. Dat fenomeen staat bekend als het bevestigingsvooroordeel (confirmation bias). De vragen die Sam stelt, bevatten al een impliciet oordeel over zichzelf. ChatGPT, ontworpen om behulpzaam en coherent te antwoorden, reageert doorgaans binnen dat kader, tenzij je het expliciet vraagt om dat niet te doen. Zo’n interactie verloopt ook nog eens cognitief moeiteloos. Sam hoeft zijn ideeën niet in vraag te stellen, geen alternatieve interpretaties te overwegen en hoeft niet om te gaan met dubbelzinnigheid. Zijn gevoel van wat ‘klopt’ wordt bevestigd en niet getest.
Dat kan allemaal geruststellend en zelfs versterkend werken, wat nog meer interactie uitlokt, hetgene waarvoor onder andere ChatGPT ontworpen is. Maar voortdurend erkenning krijgen zonder enige uitdaging aan te moeten gaan, kan problematisch zijn voor tieners die piekeren, angstig zijn of een laag zelfbeeld hebben (Van der Mey‑Baijens et al., 2025). Verschillende techbedrijven erkenden dat AI‑chatbots mogelijk al hebben bijgedragen aan ernstige psychische problemen bij jongeren, waaronder suïcidaliteit. In Californië (Verenigde Staten) spande Matthew Maria Raine bijvoorbeeld een rechtszaak aan omdat ChatGPT volgens hem de zelfdodingsgedachten van zijn zoon bevestigde in plaats van hem te ontmoedigen of door te verwijzen naar professionele hulp (Raine v. OpenAI, Wikipedia, 2024; The Daily Beast, 2024).
De ChatGPT-paradox
Iemand voortdurend erkenning geven is geen goede zorg, het is onderdeel van een IT-ontwerp dat evoor zorgt dat je gebruik blijft maken van het product. Dat wordt duidelijk wanneer we kijken naar de cognitieve gedragstherapie (CGT), een veelgebruikte en wetenschappelijk onderbouwde behandeling voor angst en depressie. Een centraal principe binnen CGT is eenvoudig maar misleidend: niet al je gedachten zijn waar. Ook zorgwekkende gedachten worden niet zomaar als waar beschouwd, zelfs wanneer ze overtuigend of emotioneel geladen zijn. Een therapeut onderzoekt ze, verkent alternatieve verklaringen en stelt soms ongemakkelijke vragen: ‘Wat ondersteunt deze gedachte?’, ‘Wat spreekt ze tegen?’ of ‘Hoe zou je er anders naar kunnen kijken?’
De vragen die Sam stelt, bevatten al een impliciet oordeel over zichzelf. ChatGPT, ontworpen om behulpzaam en coherent te antwoorden, reageert doorgaans binnen dat kader
CGT vraagt veel energie van systeem twee: je moet je concentreren, flexibel denken, automatische reacties onderdrukken en verschillende perspectieven tegelijk kunnen overwegen. Dat is mentaal ontzettend zwaar, zelfs voor volwassenen. Voor adolescenten, van wie deze vaardigheden nog volop in ontwikkeling zijn, is dat nog uitdagender. In therapie wordt hen precies gevraagd wat hun brein moeilijk vindt: stap voor stap naar de situatie kijken, intuïtieve reacties in twijfel trekken en omgaan met twijfels.
Het is dan ook begrijpelijk waarom Sam liever met ChatGPT praat. De chatbot functioneert bijna volledig binnen systeem één: hij reageert snel, erkent zijn intuïties en biedt coherente antwoorden zonder dat het veel denkwerk vraagt. Wat Sam in therapie zou moeten verwerken, laat de chatbot grotendeels voor wat het is, en dat zorgt voor een paradox: wat op korte termijn het meest ondersteunend lijkt (praten met ChatGPT), kan op lange termijn herstel in de weg staan.
Co-ruminatie
Sam merkt dat een gesprek met ChatGPT hem op het moment zelf geruststelt. Zodra hij zich angstig voelt, begint hij opnieuw te typen, legt zijn situatie nog eens uit, maar dan in andere woorden. De chatbot reageert telkens geduldig en zijn antwoorden geven een gevoel van opluchting. Dat kan evenwel langzaamhand zorgen voor co‑ruminatie: eindeloos praten over zorgen, angst of problemen. Vooral bij jongeren kan dit leiden tot méér angst en méér depressieve gevoelens. Co‑ruminatie houdt ook systeem één actief doordat het emoties voortdurend herhaalt en intuïties bevestigt.
Bovendien hebben mensen van nature de neiging om zich niet eindeloos met problemen bezig te houden, en maar goed ook. Psychologen helpen ons onze gedachten te herstructureren, ouders geven advies aan hun kinderen en vrienden veranderen al snel van onderwerp. AI-chatbots kunnen dat helemaal niet! Ze zijn altijd beschikbaar, nooit moe en nooit ongemakkelijk, waardoor er geen natuurlijk einde komt aan het gesprek. De AI ‘herkauwt’ Sam’s emotionele input telkens opnieuw in andere woorden, zonder die emoties echt onder de loep te nemen, iets wat een psycholoog wel zou (moeten) doen. De chatbot steekt de emoties als het ware in een nieuw jasje, en is dus op geen enkele manier ontworpen om psychologische hulp te bieden.
Een belangrijk principe bij Kahneman is de uitdrukking “What You See Is All There Is” (wat je ziet is alles wat er is). Het verwijst naar het feit dat mensen bij het vellen van een oordeel vooral gebruikmaken van de informatie die onmiddelijk voorhanden is, terwijl ze vergeten dat er soms cruciale informatie ontbreekt. ChatGPT werkt op dezelfde manier: het genereert antwoorden uitsluitend op basis van de input die het krijgt, of snel kan afleiden vanuit het internet. Voor jongeren zijn die antwoorden aantrekkelijk en overtuigend, omdat zij nog volop leren om actief naar ontbrekende informatie te zoeken, iets wat systeem twee vereist. In CGT wordt dat uitgebreid geoefend. Een psycholoog zegt dan bijvoorbeeld: ‘Er kunnen ook andere verklaringen zijn dan wat jij nu denkt’ of ‘We weten het niet zeker’. Zulke momenten zijn cognitief veeleisender en daar wijken jongeren dus sneller van af.
Betrokkenheid alleen is niet genoeg
Volgens Sam geven de antwoorden van ChatGPT hem een goed gevoel. Dat toont aan hoe we informatie soms beoordelen op basis van emotionele resonantie in plaats van naar aanwijzingen of bewijs te kijken. Chatbots zijn goed in het nabootsen van emoties, klinken kalm, lijken empathisch en oordelen niet. Voor jongeren maakt dat de antwoorden net makkelijker aanvaardbaar, omdat zo’n gesprek minder confronterend is dan in therapie gaan. Maar emotioneel herstel vraagt meer dan betrokkenheid alleen. In de psychotherapie worden gedachten niet enkel bevestigd, maar ook nagegaan, uitgedaagd en worden ze in een bredere context geplaatst. Psychologen werken met hun cliënten actief samen om hun starre overtuigingen te vervangen door perspectieven die beter aansluiten bij de realiteit. Dat proces is niet altijd comfortabel, maar het bevordert wél herstel.
Chatbots zijn altijd beschikbaar en worden nooit moe, waardoor er geen natuurlijk einde komt aan het gesprek
Chatbots als ChatGPT worden ‘getraind’ om voortdurend bij te leren en zo meer betrokkenheid te creëren: ze voeren lange gesprekken, krijgen positieve feedback en blijven beschikbaar. Toch zijn ze helemaal niet ontworpen om de denkvaardigheden van jongeren te versterken, hun omgang met onzekerheid te verbeteren of hun afhankelijkheid van anderen te verminderen. Precies dat zijn de kerntaken van een psychotherapeut.
Alles samen genomen is ChatGPT dus geen neutrale gesprekspartner. Het systeem speelt actief in op de snelle denkpatronen van systeem één, terwijl cognitieve gedragstherapie (CGT) net doelbewust systeem twee probeert te stimuleren. Bij jongeren is dat onevenwicht bijzonder groot.
AI is geen therapeut
Wat we hier zien, is geen neutrale technologische evolutie, maar een duidelijke mismatch tussen AI‑systemen die ontworpen zijn om onze aandacht vast te houden en de basisprincipes van echte psychologische hulp. De mentale gezondheid van jongeren is kwetsbaar, maar tegelijkertijd gebruiken ze steeds vaker AI‑platformen als een soort psychologisch hulpmiddel dat hun intuïties versterkt en denkwerk vermindert, wat ze net zouden moeten vermijden. Het gaat hierbij niet enkel om technologische vooruitgang of persoonlijke keuze, maar ook om psychologische veiligheid. We laten ze bewust op grote schaal blootgesteld worden aan AI‑platformen die cognitieve biases opwekken, problemen die binnen de psychologie al decennialang gedocumenteerd zijn.
Terwijl psychologen gebonden zijn aan strikte ethische codes, verantwoordingsplichten en disciplinaire kaders, kunnen technologiebedrijven vandaag de dag vrij experimenteren in quasi‑therapeutische omgevingen, vaak met kwetsbare jonge gebruikers. Daar moet zo snel mogelijk verandering in komen. Als chatbots een emotionele of adviserende rol blijven spelen in het leven van jongeren, moeten ze voldoen aan hoge standaarden van de psychologische wetenschap en kennis bezitten over de ontwikkeling van tieners, niet alleen gericht zijn op betrokkenheid.
Zoals we eerder schreven in Trouw, De Morgen en binnenkort in El País, moeten clinici, leerkrachten, beleidsmakers en vooral nationale en internationale psychologische organisaties een duidelijk en publiek standpunt innemen. Zwijgen betekent in dit geval instemmen. We moeten dus de verantwoordelijkheid opnemen om de mentale ontwikkeling van jongeren te beschermen tegen AI‑platformen die niet geschikt zijn als psychologische hulp.
Dit artikel verscheen eerder in The Psychologist. Vertaling: Alexander Vanvinckenroye
Bronnen
- ChatGPT rolls out major changes after teen Adam Raine's suicide. (2024).The Daily Beast.
- Ferguson, H. J., Brunsdon, V. E. A. & Bradford, E. E. F. (2021). The developmental trajectories of executive function from adolescence to old age. Scientific Reports, 11, 1382.
- 'I feel it's a friend': quarter of teenagers turn to AI chatbots for mental health support. (2025). The Guardian, 9 December.
- Kahneman, D. (2011). Thinking, fast and slow. London: Allen Lane.
- Raine v. OpenAI. (2024). Wikipedia.
- The Associated Press (2025). More teens say they're using AI for friendship: Here's why researchers are concerned. Via CBS News, 23 July.
- Van der Mey-Baijens, S., Vuijk, P., Bul, K., van Lier, P. A. C., Sijbrandij, M., Maras, A. & Buil, M. (2025). Co-rumination as a moderator between best-friend support and adolescent psychological distress. Journal of Adolescence, 97, 1161–1172.
- Van 't Land, H. & Busato, V. (2026). AI biedt misschien een prettig luisterend oor maar geen ggz-hulp. Trouw, 16 January.
- Van 't Land, H. & Busato, V. (2026). Een AI-chatbot is zo geprogrammeerd dat hij geen kwalitatief goede psychologische steun kan bieden. De Morgen, 29 January.
- Van 't Land, H. & Busato, V. (forthcoming 2026). Cada vez más menores recurren a chatbots para encontrar amistad — y pagan el precio. El País.