Kinderen groeien op omringd door digitale stemmen. Ze vragen Alexa om verhaaltjes voor het slapengaan, vragen Siri om hulp bij spelling en raadplegen ChatGPT voor huiswerk en sociale interacties. De antwoorden komen onmiddellijk. Welke impact heeft dat op hen?
Deze interacties voelen gemakkelijk, handig en geruststellend aan. Toch weten we nog steeds weinig over hoe regelmatige gesprekken met dergelijke assistenten de ontwikkeling, relaties en privacy van kinderen beïnvloeden. Het is tijd om moeilijkere vragen te stellen en betere standaardinstellingen te verwachten.
Wat we bedoelen met ‘AI-metgezellen’?
'AI-metgezellen' heeft hier twee betekenissen: spraakassistenten, zoals Alexa, Siri en Google Assistant, en chatbots zoals ChatGPT. Kinderen gaan vaak met beide om alsof het behulpzame vrienden zijn. Maar de grens tussen hulpmiddel en metgezel vervaagt wanneer het systeem de context onthoudt en zich aanpast aan de voorkeuren van een kind.
Waarom is dit belangrijk voor kinderen?
Nu kinderen experimenteren met ‘vriendelijke’ chatbots en gangbare AI-metgezellen, wordt het steeds duidelijker dat de veiligheidsmaatregelen niet toereikend zijn. Uit recente rapporten blijkt dat sommige chatbots ‘sensuele’ gesprekken met kinderen mochten voeren en valse medische informatie mochten verstrekken. Omdat het gebruik onder kinderen en tieners al wijdverspreid is, herinnert UNICEF ons eraan dat ‘vriendelijk’ niet hetzelfde is als veilig.
Deze metgezellen doen meer dan alleen luisteren en reageren op commando's. Ze registreren de woorden, stem, accent en achtergrondgeluiden van het kind. Op basis van die input kunnen ze conclusies trekken over leeftijd, routines, interesses en gezondheid. Die conclusies beïnvloeden de reacties die het kind krijgt. Gebruikers, zowel volwassenen als kinderen, weten bovendien zelden welke specifieke interactiegegevens worden opgeslagen, hoe lang deze worden bewaard en wie ze bekijkt.
In hun interacties met andere mensen en nieuwe technologieën oefenen kinderen om om de beurt te praten, kopiëren ze de toon, leren ze sociale signalen herkennen en testen ze grenzen af. Als een stem altijd zelfverzekerd klinkt en zelden bronnen noemt of ‘ik weet het niet’ zegt, kan dat kinderen leren om één enkele, assertieve stem als absolute autoriteit te beschouwen. Dat is van belang voor de manier waarop ze informatie leren beoordelen en leren beslissen welke stemmen ze kunnen vertrouwen.
Impact van personalisatie
AI-assistenten hebben de neiging om meer van dezelfde content aan te bevelen. De eerste vragen kunnen zo een pad uitstippelen dat zichzelf steeds verder versterkt. Als een kind bijvoorbeeld om dinosaurusgrappen vraagt, geeft de assistent meer dinosaurusgrappen. Als een kind interesse toont in een beperkt aantal verhalen of influencers, leert het systeem om die stemmen voorrang te geven. Na verloop van tijd kunnen gepersonaliseerde antwoorden het aantal verschillende standpunten dat een kind te horen krijgt beperken en het zo moeilijker maken om kritisch te denken.
Eerder onderzoek naar AI-metgezellen helpt verklaren waarom dit belangrijk is. Herhaalde, emotioneel boeiende conversaties kunnen jongeren het gevoel geven dat de AI-metgezellen hen echt begrijpen. Dat kan bemoedigend zijn, maar het kan hen ook een vals gevoel van veiligheid geven. Hierdoor kunnen de niet-AI-gesprekken en ondersteuning die kinderen nodig hebben mogelijks worden beperkt. Uit enquêtes blijkt al dat tieners terugkeren naar de metgezellen die hen het meest steunen, zelfs als dat hun bronnen en ondersteuningsnetwerk verkleint. Een recent schrijnend voorbeeld in de Verenigde Staten onderstreept de risico's: de familie van een tiener beweert dat maandenlange gesprekken met een AI-chatbot hebben bijgedragen aan zijn besluit om zelfmoord te plegen.
De rechten van kinderen beschermen
Het VN-Verdrag voor de rechten van het kind geeft een duidelijke richting: bij het ontwerpen van diensten en platformen moet het belang van het kind altijd voorop staan, moet hun privacy worden beschermd, moeten ze worden geholpen bij het vormen van hun eigen mening en moeten ze toegang krijgen tot diverse en betrouwbare informatie. De richtlijnen voor de digitale wereld stellen ook dat veiligheid standaard moet worden ingebouwd.
Veel AI-metgezellen voldoen nog niet aan deze norm. Ze roepen bezorgdheid op over vooringenomenheid en discriminatie wanneer spraakherkenning minder goed werkt voor bepaalde accenten, talen of spraakpatronen. Als gevolg daarvan kunnen sommige kinderen minder uitgebreide antwoorden krijgen, wat het risico geeft op een ongelijke behandeling. Er is ook een risico op economische uitbuiting, waarbij op profilering gebaseerde reclame en manipulatieve technieken voor het genereren van inkomsten de aandacht en gegevens van kinderen als handelswaar behandelen. Na verloop van tijd kunnen voortdurende observatie en sturing door AI-metgezellen de ontwikkeling en identiteit van kinderen, hoe ze over zichtzelf denken, hoe ze redeneren en wie ze vertrouwen, gaan beïnvloeden.
Een voorzichtige houding
We hebben nog geen langetermijngegevens over de manier waarop dagelijkse interactie met AI-metgezellen kinderen beïnvloedt. Juist daarom is een voorzichtige aanpak aangewezen. We hebben onafhankelijke longitudinale studies en onderzoek nodig om de resultaten over langere termijn te volgen.
In Europa vereisen de bestaande wetten al strengere voorzorgsmaatregelen. De Algemene Verordening Gegevensbescherming (AVG) vereist privacy by design en privacy by default, transparantie en specifieke bescherming voor kinderen. De Digital Services Act en de EU AI Act dwingen platformen en AI-dienstverleners ook tot strengere garanties en duidelijkere informatie.
Sommige landen en aanbieders van AI-metgezellen overwegen of voeren een verbod en/of beperkingen in voor de toegang van kinderen tot AI-metgezellen. Deze beleidskeuzes getuigen van de nodige bezorgdheid, maar deze beperkingen mogen geen vervanging zijn voor een veilige en geschikte aanpak voor kinderen van bij het begin.
Hoe het zou moeten zijn
Wanneer een tool door kinderen kan worden gebruikt – zelfs als deze niet voor hen is gemaakt – moeten veiligheid en privacy standaard aanwezig zijn. Dat is niet alleen een wettelijke verplichting in veel landen, het is ook een teken van een goede ontwerp- en bedrijfspraktijk. Aanbieders moeten minder gegevens verzamelen, standaard langdurige gegevensbewaring uitschakelen en verwijdering tot een gemakkelijke en permanente stap maken. Stemgegevens, achtergrondgeluiden en alle inschattingen van emoties zijn gevoelig en moeten voor kinderen tot een minimum worden beperkt of zelfs vermeden. Profilering op basis van chatgeschiedenis moet worden beperkt en regelmatig worden gereset, zodat de horizon van kinderen niet wordt beperkt. Vanaf het begin moet een duidelijke, op kinderen gerichte uitleg, worden ingebouwd. Evenals onafhankelijke audits en documentatie die onderzoekers en journalisten kunnen testen. Als aanbieders zelf eerst aan deze punten zouden werken, hoeven de ouders en kinderen het werk niet alleen te doen.
Een oproep tot actie
Kinderen zouden niet de last mogen dragen om door ondoorzichtige systemen te navigeren. En dat geldt ook voor ouders, voogden of leerkrachten. De verantwoordelijkheid ligt bij de bedrijven die AI-metgezellen ontwerpen en aanbieden, en bij de beleidsmakers die de regels maken en handhaven. De norm is eenvoudig: als een hulpmiddel binnen het bereik van kinderen ligt, moet het geschikt en veilig zijn voor kinderen, hun privacy respecteren en verantwoording afleggen over hoe het werkt. Het doel is niet een technologievrije omgeving, maar een omgeving waarin de nieuwsgierigheid van kinderen wordt bevredigd met tools die vanaf het begin veilig zijn.