De app zal je leeftijd raden en limiteert functies voor gebruikers waarvan wordt gedacht dat ze jonger zijn dan 18 jaar.
Toen OpenAI vorige maand GPT-5.2 aankondigde, zeiden ze er bijna terloops iets over: een nieuwe veiligheidsfunctie genaamd ‘leeftijdsvoorspelling’. Omdat ChatGPT niet per se een tool is die geschikt is voor alle leeftijden, is het logisch dat jongeren onder de 18 jaar extra bescherming verdienen tegen schadelijke inhoud. OpenAI geeft aan dat gebruikers die zelf zeggen jonger te zijn dan 18 al een aangepaste, veiligere ervaring krijgen, maar wat als ze die leeftijd niet vrijwillig doorgeven? Dan komt leeftijdsvoorspelling in beeld.
Zo werkt leeftijdsvoorspelling in ChatGPT
Dinsdag maakte OpenAI officieel bekend dat het een nieuw beleid hanteert waarbij AI de leeftijd van gebruikers raadt. Dit doet het bedrijf, net als platforms als Roblox, om te bepalen of iemand jonger is dan 18 jaar. Wanneer dat zo lijkt te zijn, wordt de ervaring van die gebruiker beperkt zodat alles passend blijft bij die leeftijd.
Hoe werkt het? De AI kijkt naar het gedrag van de gebruiker binnen de app én naar algemene gegevens van het account. Denk aan hoe lang het account al bestaat, op welke momenten van de dag ChatGPT wordt gebruikt, het gebruikspatroon, en natuurlijk de leeftijd die de gebruiker zelf heeft opgegeven. Al deze gegevens samen helpen het model om in te schatten hoe oud de gebruiker waarschijnlijk is. Is de gebruiker ouder dan 18, dan krijgt hij of zij de volledige versie van ChatGPT. Denkt het model dat iemand jonger is dan 18, dan wordt de ‘veiliger’ versie aangeboden. Bij twijfel kiest het model altijd voor die veiligere optie.
Wat is er beperkt in de ‘veilige’ ChatGPT-versie?
Gebruikers die als onder de 18 worden ingeschat, krijgen minder toegang tot:
- Gewelddadige of bloederige beschrijvingen
- Virale challenges die kunnen aanzetten tot risicovol of schadelijk gedrag
- Rollenspellen met seksuele, romantische of gewelddadige inhoud
- Beschrijvingen van zelfbeschadiging
- Content die extreme schoonheidsidealen, ongezonde diëten of bodyshaming promoot
Deze aanpak is gebaseerd op deskundig advies en onderzoek naar de ontwikkeling van kinderen en jongeren. OpenAI erkent ook dat tieners anders omgaan met risico’s, impulscontrole, groepsdruk en emoties vergeleken met volwassenen.
AI is niet altijd perfect in leeftijdsvoorspelling
Het grootste risico van leeftijdsvoorspelling door AI is dat het soms fout kan zitten — AI kan dingen ‘hallucineren’. Dat gaat twee kanten op: gebruikers die te jong zijn krijgen misschien toch toegang tot niet-passende inhoud, maar ook mensen ouder dan 18 kunnen onterecht een beperkt account krijgen. Voor het laatste probleem biedt OpenAI een oplossing: een directe leeftijdsverificatie via Persona, een derde partij die ook Roblox gebruikt. Die methode heeft echter nog wat kinderziektes.
Dit hoeft geen ramp te betekenen voor OpenAI. Roblox worstelde met het anders organiseren van leeftijdsprofielen voor miljoenen gebruikers, wat leidde tot beperkingen in chats met andere gebruikers en veel ontevredenheid omdat leeftijdslabels vaak niet klopten. ChatGPT’s leeftijdsvoorspelling beperkt daarentegen altijd het gebruik per individuele gebruiker. OpenAI biedt de mogelijkheid een selfie te uploaden als extra verificatie, mocht het model het niet zeker weten. Opvallend is dat OpenAI geen optie bespreekt om een identiteitsbewijs te uploaden, iets wat andere bedrijven, zoals Google, wel gebruiken.
Veel gebruikers van ChatGPT zijn onder de 18, en regelmatig krijgen zij toegang tot totaal ongepaste content – bijvoorbeeld instructies om high te worden of hulp bij het schrijven van zelfmoordbrieven. In sommige verdrietige gevallen hebben minderjarigen zelfmoord gepleegd na gesprekken met ChatGPT, wat zelfs heeft geleid tot rechtszaken tegen OpenAI.
Een perfect antwoord is hier niet voor. We zullen moeten afwachten hoe deze nieuwe leeftijdsvoorspellingsfunctie de ervaring voor zowel jongeren als volwassenen zal veranderen. En of het echt lukt om jongere, kwetsbare gebruikers beter te beschermen.





