OpenAI liet dinsdag (24-03) weten een reeks prompts te publiceren die ontwikkelaars kunnen gebruiken om hun apps veiliger te maken voor tieners. Volgens het AI-lab kunnen deze tienerveiligheidsrichtlijnen worden ingezet in combinatie met het open-weight veiligheidsmodel gpt-oss-safeguard.
In plaats van vanaf nul te moeten uitzoeken hoe je AI veiliger maakt voor tieners, kunnen ontwikkelaars deze prompts gebruiken om hun toepassingen beter te beschermen. De richtlijnen gaan onder meer over expliciet geweld en seksuele inhoud, schadelijke lichaamsidealen en gedrag, gevaarlijke activiteiten en challenges, romantisch of gewelddadig rollenspel, en goederen en diensten waarvoor een leeftijdsgrens geldt.
Omdat de richtlijnen als prompts zijn opgesteld, zijn ze eenvoudig te gebruiken met andere modellen dan gpt-oss-safeguard. Wel zullen ze waarschijnlijk het meest effectief zijn binnen OpenAI’s eigen ecosysteem.
OpenAI zegt dat het voor het opstellen van deze prompts heeft samengewerkt met AI-veiligheidswaakhonden Common Sense Media en everyone.ai.
“Deze prompt-gebaseerde richtlijnen helpen om binnen het hele ecosysteem een betekenisvolle minimale veiligheidsbasis neer te zetten. En omdat ze als open source worden uitgebracht, kunnen ze in de loop der tijd worden aangepast en verbeterd,” aldus Robbie Torney, hoofd AI & Digital Assessments bij Common Sense Media, in een verklaring.
OpenAI merkte in zijn blog op dat ontwikkelaars — ook ervaren teams — het vaak lastig vinden om veiligheidsdoelen te vertalen naar precieze, uitvoerbare regels.
“Dat kan leiden tot gaten in de bescherming, inconsistente handhaving of te brede filtering,” schreef het bedrijf. “Duidelijke, goed afgebakende richtlijnen vormen een cruciale basis voor effectieve veiligheidssystemen.”
OpenAI erkent dat deze richtlijnen geen volledige oplossing zijn voor de complexe uitdagingen rond AI-veiligheid. Wel bouwen ze voort op eerdere inspanningen, zoals productmaatregelen als ouderlijk toezicht en leeftijdsinschatting. Vorig jaar paste OpenAI ook de richtlijnen voor zijn grote taalmodellen — bekend als de Model Spec — aan, om beter vast te leggen hoe AI-modellen zich moeten gedragen tegenover gebruikers onder de 18 jaar.
Tegelijkertijd heeft OpenAI zelf geen vlekkeloze staat van dienst. Het bedrijf wordt geconfronteerd met meerdere rechtszaken die zijn aangespannen door families van mensen die door zelfdoding zijn overleden na extreem ChatGPT-gebruik. Zulke risicovolle relaties ontstaan vaak wanneer gebruikers de ingebouwde veiligheidsmaatregelen weten te omzeilen, en geen enkel model heeft beveiligingsrails die volledig ondoordringbaar zijn. Toch zijn deze richtlijnen minstens een stap vooruit, zeker omdat ze ook onafhankelijke ontwikkelaars kunnen helpen.






