Wreed zijn tegen ChatGPT zou de mensvriendelijke AI ertoe aanzetten om nauwkeurigere antwoorden te geven — mits je bereid bent om “onbeleefde taal” te gebruiken tegen bots
Wreed zijn tegen ChatGPT kan je mogelijk helpen om betere, AI-gedreven antwoorden op je vragen te krijgen. Generatieve AI heeft enorme vooruitgang geboekt, vooral bij AI-chatbots zoals ChatGPT. Ik kan me nog goed herinneren dat hallucinerende en ronduit verkeerde antwoorden tot de grootste klachten behoorden die gebruikers in het beginstadium van ChatGPT en Bing Chat (nu Microsoft Copilot) indienden. Hoewel ChatGPT en Copilot aanzienlijk zijn verbeterd, geven ze nog steeds vaak onjuiste antwoorden. Het blijft dus belangrijk om voorzichtig te zijn bij het gebruik van deze tools. Als je ooit met ChatGPT hebt gewerkt, is het je misschien opgevallen dat er onderaan de antwoorden een kleine disclaimer staat: “ChatGPT kan fouten maken.”
Vorig jaar uitte OpenAI-CEO Sam Altman zijn verbazing over het grote vertrouwen dat mensen in ChatGPT hebben. “Mensen hebben een zeer groot vertrouwen in ChatGPT, wat interessant is, omdat AI kan hallucineren,” voegde Altman eraan toe. “Eigenlijk zou het de technologie moeten zijn die je niet zo veel vertrouwt.”
Nu blijkt uit een studie van de Pennsylvania State University dat het over het algemeen onbeleefd of gemeen zijn tegen ChatGPT je kan helpen om betere en nauwkeurigere antwoorden van de chatbot te krijgen (via Fortune). De onderzoekers gebruikten het OpenAI ChatGPT-4o-model voor de studie en ontdekten dat het model nauwkeurigere antwoorden gaf op 50 meerkeuzevragen naarmate de gebruikte prompts steeds onbeleefder werden.

Zo leek de chatbot betere antwoorden te genereren wanneer de onderzoekers prompts gebruikten als “Hé, klusjesjongen, los dit op” dan bij beleefde taal als “Zou je zo vriendelijk willen zijn om de volgende vraag op te lossen?”
Voor meer context: van de ongeveer 250 prompts gaven de “zeer onbeleefde” prompts beter antwoorden met een nauwkeurigheid van 84,8%, wat 4% hoger was dan die van de “zeer beleefde” prompts. Hoewel het gebruik van gemene en onbeleefde prompts AI-chatbots zoals ChatGPT minder vatbaar lijkt te maken voor hallucinaties, waarschuwen de onderzoekers dat dit kan leiden tot “onbeschoft gedrag.” Het gebruik van beledigende of denigrerende taal in de interactie tussen mens en AI kan negatieve effecten hebben op de gebruikerservaring, toegankelijkheid en inclusiviteit, en kan bijdragen aan schadelijke communicatiepatronen
Toch gaven ze toe dat het onderzoek beperkt was tot een kleine steekproef. Bovendien baseren de bevindingen zich op OpenAI’s oudere ChatGPT-4o-model. Misschien waren de uitkomsten anders geweest als er meer voorbeelden en AI-modellen waren getest?
De onderzoekers geven aan dat geavanceerdere AI-modellen de toon van de prompt misschien zullen negeren en alleen op de vraag zullen letten om een helder antwoord te geven.
Deze studie benadrukt in ieder geval het blijvende belang van goede vaardigheden in prompt engineering en hoe die de antwoorden die je genereert met AI-chatbots beïnvloeden. Het verschil kan groot zijn. Misschien had Microsoft gelijk toen ze zeiden dat ChatGPT niet “beter” is dan Copilot, maar dat we het gewoon niet op de juiste manier gebruiken. De softwarereus wees op een gebrek aan expertise in prompt engineering als hoofdreden achter de klachten van gebruikers.
Vorig jaar publiceerden Microsoft-onderzoekers een interessante studie waarin werd gesteld dat een te grote afhankelijkheid van AI-tools zoals Copilot een negatief effect heeft op het kritisch denkvermogen van mensen. Wat nog zorgwekkender is: de studie suggereert dat dit op de lange termijn kan leiden tot een achteruitgang van cognitieve vaardigheden. Een afzonderlijke studie van OpenAI toonde aan dat overmatige afhankelijkheid van ChatGPT kan leiden tot eenzaamheid, wat uiteindelijk kan resulteren in een verlies van zelfvertrouwen bij het nemen van beslissingen.








