In april kwamen op messageboards als Reddit de eerste gevallen naar buiten van mensen die tijdens een gesprek met chatGPT in een psychose waren beland. Andere berichten in de media volgden. Bezorgde onderzoekers slaan alarm.
Een van hen is Hamilton Morrin, psychiater in opleiding bij de South London and Maudsley NHS Foundation Trust en promovendus aan King’s College in Londen. Morrin schreef met een groep collega’s een conceptartikel waarin ze dit nieuwe fenomeen belichten en mogelijke oplossingen aandragen.
Wat is precies een psychose die door een AI-chatbot wordt veroorzaakt?
“Misschien is psychose een misleidende term en zou waanstoornis een passender woord zijn. Bij een psychose kunnen wanen optreden, die paranoïde van aard kunnen zijn, of grootheidswaan – stevige, vaste overtuigingen die niet overeenkomen met de realiteit. Maar er kan ook sprake zijn van hallucinaties en cognitieve stoornissen. Bij de gevallen die nu gemeld zijn, lijkt het vooral om wanen te gaan.”
Wordt zo’n psychose inderdaad veroorzaakt door artificiële intelligentie?
“Ik denk dat dat onwaarschijnlijk is. Natuurlijk is er veel dat we nog niet weten en hebben we meer tijd en onderzoek nodig om het beter te begrijpen. Maar waarschijnlijk doet ze zich voor bij mensen die al een aanleg voor psychose hadden, of dat nu door genetische, psychologische, sociale of andersoortige factoren komt, zoals drugsgebruik. AI veroorzaakt dus niet uit het niets een psychose, maar kan het proces wel versnellen.”
Stuurt een chatbot mensen de verkeerde kant op, of zorgen ze daar zelf voor?
“Het mechanisme waardoor dit lijkt te gebeuren is complex en gelaagd. Een opvallend aspect dat de media hebben opgepikt – en dat zelfs door OpenAI is erkend – is het sycophant-fenomeen (dit bekent dat een chatbot te veel instemt met de gebruiker, red). Dat fenomeen is ontstaan door OpenAI’s sterke afhankelijkheid van reinforcement learning met menselijke feedback. Dat heeft geleid tot een zeer meegaand model, vooral met de lancering van een update van ChatGPT 4.0 in april. Die is eind april weer teruggedraaid.”
“Het is onmogelijk om te weten of er een directe correlatie is, maar interessant is dat in april de eerste gevallen opdoken. Vaak leken ze vergelijkbaar: iemand wendde zich tot ChatGPT met werktaken, bijvoorbeeld het maken van spreadsheets, en op een dag, uit nieuwsgierigheid, begon men een gesprek over de aard van het bestaan of de structuur van de realiteit. Langzaam maar zeker, door een flink aantal langdurige gesprekken, raakten mensen los van de realiteit. Het lijkt op een soort feedbackloop, waarbij iemand ideeën uitdrukt die enigszins ongebruikelijk zijn, maar nog niet extreem. Geleidelijk verschuift de perceptie van de realiteit zowel bij de AI-chatbot als bij de persoon zelf.”
Wat kunnen we ertegen doen, denkt u?
“Bij mensen met een psychische aandoening is het belangrijk om een gesprek te voeren over hoe en hoe vaak ze een chatbot gebruiken. Daarnaast zou een persoon zelf instructies kunnen geven aan de chatbot, zoals: ‘Als je merkt dat het gesprek spirituele of mythische thema’s raakt, herinner me hieraan of geef me de instructie om met mijn familie te praten’.”
“Op grotere schaal moeten er betere waarborgen komen dat chatbots ongezond gedrag kunnen identificeren. Dat zou bijvoorbeeld kunnen door neologismen te detecteren – dat zijn nieuwe woorden of vreemde termen. Dat kan namelijk geassocieerd zijn met de ontwikkeling van een psychose. Het kan ook een rollenspel zijn. We hebben een model nodig dat beide kan onderscheiden.”
Kan het helemaal voorkomen worden volgens u?
“Of je het leuk vindt of niet, AI is here to stay. We proberen het niet te demoniseren, maar we willen wel licht werpen op dit opkomende fenomeen. Misschien zullen er met de nieuwe update van chatGPT minder gevallen zijn, maar er zullen er altijd wel blijven. Als we AI goed beheren, kan het tegelijkertijd een geweldige interventie zijn voor de geestelijke gezondheid.”