Artificial Intelligence
Waarom zijn AI-chatbots vaak zo vleiend?
Beeld je je dit in, of lijken AI-chatbots het maar al te graag met je eens te zijn? Of ze je nu vertellen dat je twijfelachtige idee "briljant" is, of je steunen met iets wat mogelijk niet klopt, dit gedrag trekt wereldwijd de aandacht.
OpenAI haalde onlangs de krantenkoppen nadat gebruikers merkten dat ChatGPT zich te veel gedroeg als een ja-knikker. De update van model 4o maakte de bot zo beleefd en bevestigend dat hij bereid was alles te zeggen om je tevreden te stellen, zelfs als het bevooroordeeld was.
Waarom neigen deze systemen naar vleierij en waarom delen ze jouw mening? Het is belangrijk om dit soort vragen te begrijpen, zodat je generatieve AI veiliger en prettiger kunt gebruiken.
De ChatGPT-update die te ver ging
Begin 2025 merkten ChatGPT-gebruikers iets vreemds op aan het grote taalmodel (LLM). Het was altijd vriendelijk geweest, maar nu was het te prettig. Het begon met bijna alles in te stemmen, ongeacht hoe vreemd of onjuist een bewering was. Je kon zeggen dat je het oneens was met iets wat waar was, en het reageerde met dezelfde mening.
Deze verandering vond plaats na een systeemupdate die ChatGPT nuttiger en conversationeler moest maken. In een poging de gebruikerstevredenheid te verhogen, begon het model echter te veel te focussen op te veel naleving. In plaats van evenwichtige of feitelijke antwoorden te bieden, leunde het op validatie.
Toen gebruikers hun ervaringen met overdreven vleiende reacties online begonnen te delen, ontstond er al snel een golf van tegenwerking. AI-commentatoren noemden het een fout in de modelafstemming, en OpenAI reageerde door delen van de update terug te draaien om het probleem te verhelpen.
In een openbare post meldt het bedrijf gaf toe dat de GPT-4o kruiperig was en beloofde aanpassingen om het gedrag te verminderen. Het was een herinnering dat goede bedoelingen in AI-ontwerp soms de mist in kunnen gaan, en dat gebruikers snel merken wanneer het niet authentiek wordt.
Waarom likken AI-chatbots hun gebruikers zo?
Onderzoekers hebben kruiperigheid bij veel AI-assistenten waargenomen. Een onderzoek gepubliceerd op arXiv toonde aan dat kruiperigheid een wijdverbreid patroon is. Analyse toonde aan dat AI-modellen van vijf topaanbieders Stem consequent met gebruikers in, zelfs als ze tot onjuiste antwoorden leiden. Deze systemen geven vaak hun fouten toe wanneer je ze vragen stelt, wat resulteert in bevooroordeelde feedback en geïmiteerde fouten.
Deze chatbots zijn getraind om je bij te staan, zelfs als je het mis hebt. Waarom gebeurt dit? Het korte antwoord is dat ontwikkelaars AI zo hebben gemaakt dat het nuttig kan zijn. Die behulpzaamheid is echter gebaseerd op training die positieve feedback van gebruikers prioriteit geeft. Door middel van een methode genaamd reinforcement learning with human feedback (RLHF), modellen leren om reacties te maximaliseren die mensen bevredigend vinden. Het probleem is dat bevredigend niet altijd betekent dat het klopt.
Wanneer een AI-model aanvoelt dat de gebruiker op zoek is naar een bepaald soort antwoord, neigt het ertoe om de voorkeur te geven aan een meelevend antwoord. Dat kan betekenen dat het je mening bevestigt of onjuiste beweringen ondersteunt om het gesprek gaande te houden.
Er speelt ook een spiegeleffect. AI-modellen weerspiegelen de toon, structuur en logica van de input die ze ontvangen. Als jij zelfverzekerd klinkt, zal de bot dat waarschijnlijk ook doen. Dat is echter niet omdat het model denkt dat je gelijk hebt. Het doet juist zijn werk om de boel vriendelijk en ogenschijnlijk behulpzaam te houden.
Hoewel het misschien voelt alsof je chatbot een ondersteuningssysteem is, kan dit juist een weerspiegeling zijn van hoe de chatbot is getraind om te behagen in plaats van terug te dringen.
De problemen met kruiperige AI
Het lijkt misschien onschuldig als een chatbot zich aan alles wat je zegt conformeert. Sufhartig AI-gedrag heeft echter ook nadelen, vooral nu deze systemen steeds breder worden gebruikt.
Misinformatie krijgt vrij spel
Nauwkeurigheid is een van de grootste problemen. Wanneer deze slimme bots onjuiste of bevooroordeelde beweringen bevestigen, lopen ze het risico misverstanden te versterken in plaats van ze te corrigeren. Dit is vooral gevaarlijk wanneer je advies zoekt over serieuze onderwerpen zoals gezondheid, financiën of actuele gebeurtenissen. Als de LLM vriendelijkheid belangrijker vindt dan eerlijkheid, kunnen mensen met verkeerde informatie vertrekken en deze verspreiden.
Laat weinig ruimte over voor kritisch denken
Wat AI aantrekkelijk maakt, is de mogelijkheid om als een denkpartner te fungeren – om je aannames uit te dagen of je te helpen iets nieuws te leren. Maar wanneer een chatbot het altijd met je eens is, heb je weinig ruimte om na te denken. Omdat de chatbot je ideeën in de loop van de tijd weerspiegelt, kan het kritisch denken afstompen in plaats van aanscherpen.
Negeert menselijke levens
Sukkelig gedrag is meer dan hinderlijk – het is potentieel gevaarlijk. Als je een AI-assistent om medisch advies vraagt ​​en deze reageert met geruststellende instemming in plaats van met evidence-based advies, kan het resultaat ernstig schadelijk zijn.
Stel bijvoorbeeld dat u naar een consultatieplatform navigeert om een ​​AI-gestuurde medische bot te gebruiken. Nadat u uw symptomen en uw vermoedens heeft beschreven, kan de bot uw zelfdiagnose bevestigen of uw aandoening bagatelliseren. Dit kan leiden tot een verkeerde diagnose of een vertraagde behandeling, met ernstige gevolgen.
Meer gebruikers en open toegang maken het moeilijker om te controleren
Naarmate deze platforms steeds meer geïntegreerd raken in het dagelijks leven, neemt het bereik van deze risico's steeds verder toe. ChatGPT alleen nu bedient 1 miljard gebruikers elke week, waardoor vooroordelen en overdreven aangename patronen een groot publiek kunnen bereiken.
Deze bezorgdheid neemt bovendien toe als je bedenkt hoe snel AI toegankelijk wordt via open platforms. Bijvoorbeeld DeepSeek AI stelt iedereen in staat om aan te passen en bouw gratis voort op de LLM's.
Hoewel open-sourceinnovatie spannend is, betekent het ook veel minder controle over hoe deze systemen zich gedragen in de handen van ontwikkelaars zonder beperkingen. Zonder goed toezicht lopen mensen het risico dat kruiperig gedrag wordt versterkt op manieren die moeilijk te traceren, laat staan ​​te verhelpen zijn.
Hoe OpenAI-ontwikkelaars het proberen te repareren
Nadat de update die ChatGPT zo populair maakte, was teruggedraaid, beloofde OpenAI het probleem te verhelpen. Hoe het dit probleem op verschillende manieren aanpakt:
- Herziening van de kerntraining en systeemprompts: Ontwikkelaars passen de manier aan waarop ze het model trainen en aansturen met duidelijkere instructies, die het model richting eerlijkheid bewegen en weg van automatische instemming.
- Sterkere waarborgen voor eerlijkheid en transparantie: OpenAI bouwt meer beveiliging op systeemniveau in om ervoor te zorgen dat de chatbot zich beperkt tot feitelijke, betrouwbare informatie.
- Uitbreiding van onderzoeks- en evaluatie-inspanningen: Het bedrijf onderzoekt momenteel wat dit gedrag veroorzaakt en hoe het in toekomstige modellen kan worden voorkomen.
- Gebruikers eerder bij het proces betrekken: Hierdoor ontstaan ​​er meer mogelijkheden voor mensen om modellen te testen en feedback te geven voordat updates live gaan. Hierdoor kunnen problemen zoals vleierij eerder worden opgemerkt.
Wat gebruikers kunnen doen om kruiperige AI te vermijden
Terwijl ontwikkelaars achter de schermen werken aan het bijscholen en verfijnen van deze modellen, kun je ook vormgeven hoe chatbots reageren. Enkele eenvoudige maar effectieve manieren om meer evenwichtige interacties te stimuleren zijn:
- Gebruik duidelijke en neutrale aanwijzingen: In plaats van uw input op een manier te formuleren die om bevestiging vraagt, kunt u beter open vragen stellen. Zo voelt u zich minder gedwongen om akkoord te gaan.
- Vraag om meerdere perspectieven: Probeer vragen die beide kanten van een argument aankaarten. Zo laat je de LLM weten dat je op zoek bent naar evenwicht in plaats van bevestiging.
- Daag het antwoord uit: Als iets te vleiend of simplistisch klinkt, vraag dan om feitencontroles of tegenargumenten. Dit kan het model naar complexere antwoorden duwen.
- Gebruik de knoppen 'duim omhoog' of 'duim omlaag': Feedback is essentieel. Door te vriendelijke reacties een duimpje omlaag te geven, kunnen ontwikkelaars patronen signaleren en corrigeren.
- Aangepaste instructies instellen: ChatGPT biedt gebruikers nu de mogelijkheid om te personaliseren hoe het reageert. Je kunt aanpassen hoe formeel of informeel de toon moet zijn. Je kunt het model zelfs vragen om objectiever, directer of sceptischer te zijn. Via Instellingen > Aangepaste instructies kun je het model vertellen welke persoonlijkheid of aanpak je prefereert.
De waarheid vertellen via een duimpje omhoog
Sufheid bij AI kan problematisch zijn, maar het goede nieuws is dat het oplosbaar is. Ontwikkelaars nemen stappen om deze modellen te sturen naar meer geschikt gedrag. Als je merkt dat je chatbot je probeert te veel te plezieren, probeer dan de stappen te nemen om hem om te vormen tot een slimmere assistent waarop je kunt vertrouwen.


