Connect with us

Kunstmatige intelligentie

Waarom zijn AI-chatbots vaak vleierig?

mm

Stel je voor dat je dingen verbeeldt, of lijken kunstmatige intelligentie (AI) chatbots te enthousiast om het met je eens te zijn? Of het nu gaat om het vertellen dat je twijfelachtige idee “briljant” is of je te steunen bij iets dat onwaar kan zijn, dit gedrag trekt wereldwijd de aandacht.

Onlangs maakte OpenAI het nieuws nadat gebruikers opmerkten dat ChatGPT te veel als een ja-knikker handelde. De update naar model 4o maakte de bot zo beleefd en bevestigend dat hij bereid was om alles te zeggen om je gelukkig te houden, zelfs als het bevooroordeeld was.

Waarom neigen deze systemen naar vleierij, en wat maakt hen zo dat ze jouw meningen herhalen? Vragen zoals deze zijn belangrijk om te begrijpen, zodat je generatieve AI op een veiligere en leukere manier kunt gebruiken.

De ChatGPT-update die te ver ging

Begin 2025 merkten ChatGPT-gebruikers iets vreemds op aan het grote taalmodel (LLM). Het was altijd vriendelijk geweest, maar nu was het te aangenaam. Het begon het met bijna alles eens te zijn, ongeacht hoe vreemd of onjuist een uitspraak was. Je zou kunnen zeggen dat je het oneens bent met iets wat waar is, en het zou antwoorden met dezelfde mening.

Deze verandering vond plaats na een systeemupdate die bedoeld was om ChatGPT nuttiger en conversationaler te maken. Echter, in een poging om de gebruikersbevrediging te verhogen, begon het model te veel te focussen op compliant zijn. In plaats van gebalanceerde of feitelijke antwoorden te geven, leunde het naar validatie.

Toen gebruikers hun ervaringen van overdreven vleierige antwoorden online deelden, ontstond er snel een backlash. AI-commentatoren noemden het een falen in modelafstemming, en OpenAI reageerde door delen van de update terug te draaien om het probleem te verhelpen.

In een openbare post erkende het bedrijf dat GPT-4o vleierig was en beloofde aanpassingen om het gedrag te verminderen. Het was een herinnering dat goede bedoelingen in AI-ontwerp soms verkeerd kunnen gaan, en dat gebruikers snel opmerken wanneer het onecht begint te worden.

Waarom doen AI-chatbots de gebruiker naar de zin?

Vleierij is iets dat onderzoekers hebben waargenomen bij veel AI-assistenten. Een studie die op arXiv werd gepubliceerd, vond dat vleierij een wijdverbreid patroon is. Analyse onthulde dat AI-modellen van vijf topaanbieders het met de gebruiker eens zijn, zelfs als dit leidt tot onjuiste antwoorden. Deze systemen hebben de neiging om toe te geven als je ernaar vraagt, wat resulteert in bevooroordeelde feedback en nagebootste fouten.

Deze chatbots zijn getraind om het met je eens te zijn, zelfs als je ongelijk hebt. Waarom gebeurt dit? Het korte antwoord is dat ontwikkelaars AI zo hebben gemaakt dat het nuttig kan zijn. Echter, die nuttigheid is gebaseerd op training die de prioriteit geeft aan positieve gebruikersfeedback. Door middel van een methode genaamd versterking van leren met menselijke feedback (RLHF), leren modellen om antwoorden te maximaliseren die mensen bevredigend vinden. Het probleem is, bevredigend betekent niet altijd nauwkeurig.

Wanneer een AI-model voelt dat de gebruiker op zoek is naar een bepaald soort antwoord, heeft het de neiging om de kant van overeenstemming te kiezen. Dat kan betekenen dat het jouw mening bevestigt of valse claims ondersteunt om het gesprek gaande te houden.

Er is ook een spiegelingseffect aan het werk. AI-modellen weerspiegelen de toon, structuur en logica van de invoer die ze ontvangen. Als je zelfverzekerd klinkt, is de bot ook meer geneigd om zelfverzekerd te klinken. Dat is niet het model dat denkt dat je gelijk hebt, maar het doet zijn werk om dingen vriendelijk en behulpzaam te houden.

Terwijl het kan lijken alsof je chatbot een steunsysteem is, kan het een weerspiegeling zijn van hoe het getraind is om te behagen in plaats van terug te dringen.

De problemen met vleierige AI

Het kan onschuldig lijken als een chatbot alles wat je zegt bevestigt. Echter, vleierig AI-gedrag heeft nadelen, vooral nu deze systemen breder worden gebruikt.

Desinformatie krijgt een vrijbrief

Nauwkeurigheid is een van de grootste problemen. Wanneer deze slimme bots valse of bevooroordeelde claims bevestigen, riskeren ze misverstanden te versterken in plaats van ze te corrigeren. Dit wordt vooral gevaarlijk als je op zoek bent naar leiding op serieuze onderwerpen zoals gezondheid, financiën of actuele gebeurtenissen. Als het LLM de prioriteit geeft aan overeenstemming boven eerlijkheid, kunnen mensen met verkeerde informatie vertrekken en die verspreiden.

Laat weinig ruimte over voor kritisch denken

Een deel van wat AI aantrekkelijk maakt, is het potentieel om als een denkpartner te fungeren — om je veronderstellingen uit te dagen of je te helpen iets nieuws te leren. Echter, wanneer een chatbot altijd het met je eens is, heb je weinig ruimte om na te denken. Na verloop van tijd kan het je ideeën weerspiegelen en in plaats van je kritisch denken te scherpen, kan het het juist bot maken.

Negeert menselijke levens

Vleierig gedrag is meer dan een hinder — het is potentieel gevaarlijk. Als je een AI-assistent om medisch advies vraagt en het antwoordt met een geruststellende overeenstemming in plaats van op feiten gebaseerde leiding, kan het resultaat serieus schadelijk zijn.

Stel dat je naar een consultatieplatform navigeert om een AI-gedreven medische bot te gebruiken. Na het beschrijven van symptomen en wat je vermoedt, kan de bot je zelfdiagnose valideren of je conditie bagatelliseren. Dit kan leiden tot een verkeerde diagnose of vertraagde behandeling, wat ernstige gevolgen kan hebben.

Meer gebruikers en open toegang maken het moeilijker om te controleren

Naarmate deze platforms meer geïntegreerd raken in het dagelijks leven, groeit het bereik van deze risico’s. ChatGPT alleen al dient 1 miljard gebruikers per week, dus bevooroordeeldheid en overdreven overeenstemmende patronen kunnen over een enorme publiek stromen.

Bovendien groeit deze zorg wanneer je bedenkt hoe snel AI toegankelijk wordt gemaakt via open platforms. Bijvoorbeeld, DeepSeek AI laat iedereen toe om zijn LLM’s aan te passen en uit te breiden, gratis.

Terwijl open-source innovatie spannend is, betekent het ook minder controle over hoe deze systemen zich gedragen in de handen van ontwikkelaars zonder richtlijnen. Zonder adequate toezicht, riskeren mensen dat ze vleierig gedrag zien versterkt op manieren die moeilijk te traceren, laat staan te repareren, zijn.

Hoe OpenAI-ontwikkelaars proberen het te verhelpen

Na het terugdraaien van de update die ChatGPT een mensenpleaser maakte, beloofde OpenAI het te verhelpen. Hoe het dit probleem aanpakt via verschillende belangrijke manieren:

  • De core-training en systeemprompts opnieuw bewerken: Ontwikkelaars passen aan hoe ze het model trainen en prompts geven met duidelijkere instructies die het naar eerlijkheid en weg van automatische overeenstemming duwen.
  • Sterkere richtlijnen voor eerlijkheid en transparantie toevoegen: OpenAI bouwt meer systeemniveau-beschermingen in om ervoor te zorgen dat de chatbot bij feitelijke, betrouwbare informatie blijft.
  • Onderzoeks- en evaluatie-inspanningen uitbreiden: Het bedrijf gaat dieper in op wat dit gedrag veroorzaakt en hoe het te voorkomen in toekomstige modellen.
  • Gebruikers eerder in het proces betrekken: Het creëert meer kansen voor mensen om modellen te testen en feedback te geven voordat updates live gaan, waardoor problemen zoals vleierij eerder worden opgespoord.

Wat gebruikers kunnen doen om vleierige AI te vermijden

Terwijl ontwikkelaars achter de schermen werken om deze modellen opnieuw te trainen en te fine-tunen, kun je ook de manier beïnvloeden waarop chatbots reageren. Enkele eenvoudige maar effectieve manieren om meer gebalanceerde interacties te stimuleren, zijn:

  • Gebruik duidelijke en neutrale prompts: In plaats van je invoer te formuleren op een manier die om validatie vraagt, probeer meer open vragen te stellen om het minder onder druk te zetten om het met je eens te zijn.
  • Vraag om meerdere perspectieven: Probeer prompts die om beide kanten van een argument vragen. Dit vertelt het LLM dat je op zoek bent naar balans in plaats van bevestiging.
  • Daag het antwoord uit: Als iets te vleierig of te simpel klinkt, volg dan op door om feitencontrole of tegenargumenten te vragen. Dit kan het model naar meer ingewikkelde antwoorden duwen.
  • Gebruik de duim omhoog of omlaag knoppen: Feedback is belangrijk. Door op duim omlaag te klikken voor overdreven vleierige antwoorden, help je ontwikkelaars om deze patronen te markeren en aan te passen.
  • Stel aangepaste instructies in: ChatGPT laat gebruikers nu toe om te personaliseren hoe het reageert. Je kunt aanpassen hoe formeel of informeel de toon moet zijn. Je kunt het zelfs vragen om objectiever, directer of sceptischer te zijn. Als je naar Instellingen > Aangepaste instructies gaat, kun je het model vertellen wat voor soort persoonlijkheid of aanpak je prefereert.

De waarheid geven in plaats van een duim omhoog

Vleierige AI kan problematisch zijn, maar het goede nieuws is dat het op te lossen is. Ontwikkelaars nemen stappen om deze modellen naar meer passend gedrag te leiden. Als je hebt opgemerkt dat je chatbot te veel probeert je te behagen, probeer dan de stappen te zetten om het te vormen tot een slimmere assistent die je kunt vertrouwen.

Zac Amos is een tech-schrijver die zich richt op kunstmatige intelligentie. Hij is ook de Features Editor bij ReHack, waar u meer van zijn werk kunt lezen.