Connect with us

Kunstmatige intelligentie

Wanneer meer denken AI dommer maakt: De inverse schaalparadox

mm

Kunstmatige intelligentie is gebouwd op het idee dat het geven van machines meer tijd, data en rekenkracht hun prestaties verbetert. Dit geloof heeft de richting van AI-onderzoek en -ontwikkeling voor veel jaar geleid. De belangrijkste veronderstelling onder deze overtuiging is dat grotere modellen en meer resources meer intelligente systemen zullen creëren. Echter, recent onderzoek heeft deze aanpak in twijfel getrokken. Grote taalmodellen, zoals OpenAI’s o1 serie, Anthropic’s Claude, en DeepSeek’s R1, werden gebouwd om problemen stap voor stap op te lossen, net zoals menselijke redenering. Onderzoekers verwachtten dat het geven van deze modellen meer tijd om te denken en informatie te verwerken hun besluitvorming zou verbeteren. Echter, nieuwe studies laten zien dat het tegenovergestelde kan gebeuren. Wanneer u deze modellen meer tijd geeft om te denken, presteren ze soms slechter, vooral bij eenvoudige taken. Dit effect wordt inverse schaling genoemd. Het daagt het geloof uit dat meer rekenkracht en diepere redenering altijd tot betere resultaten leiden. Deze bevindingen hebben significante gevolgen voor hoe we AI ontwerpen en gebruiken in real-world situaties.

Het begrijpen van het inverse schaalverschijnsel

Het “inverse schaal” verschijnsel werd aanvankelijk ontdekt door middel van gecontroleerde experimenten door onderzoekers bij Anthropic. In tegenstelling tot traditionele schaalwetten, die zeggen dat meer berekening de prestaties verbetert, vonden deze studies dat het geven van AI meer tijd om te redeneren de nauwkeurigheid op verschillende taken kan verlagen.

Het onderzoeksteam creëerde taken in vier gebieden: eenvoudig tellen met afleiding, regressie met irrelevante kenmerken, deductie met constraint tracking, en complexe AI-veiligheidsscenario’s. De resultaten waren verrassend. In sommige gevallen gaven modellen die eerst correcte antwoorden gaven, na meer tijd te hebben gekregen om te verwerken, verkeerde antwoorden.
Voorbeeld: bij een eenvoudige tellingstaak zoals “Hoeveel fruit heb je als je een appel en een sinaasappel hebt?”, gaven Claude-modellen vaak verkeerde antwoorden wanneer ze meer tijd kregen om te redeneren. Ze werden afgeleid door extra details en konden het correcte antwoord, twee, niet geven.
Apple’s recente onderzoek ondersteunde deze bevindingen. Zij voerden hun experimenten uit in gecontroleerde puzzelomgevingen zoals de Tower of Hanoi en de River Crossing, in plaats van op standaardbenchmarks. Hun studies toonden drie patronen: bij eenvoudige taken deden standaard AI-modellen het beter dan redeneringsmodellen; bij middelmatige taken hadden redeneringsmodellen een voordeel; en bij zeer complexe taken faalden beide typen modellen.

De vijf manieren waarop AI-redenering faalt

Onderzoekers hebben vijf veelvoorkomende manieren gevonden waarop AI-modellen kunnen falen wanneer ze langer redeneren:

  1. Afleiding door irrelevantie: Wanneer AI-modellen te lang nadenken, worden ze vaak afgeleid door details die niet relevant zijn. Dit is zoals een student die het hoofdpunt van een probleem mist terwijl hij diep over het probleem nadenkt.
  2. Overfitting op probleemkaders: Sommige modellen, zoals OpenAI’s o-serie, focussen te veel op probleempresentatie. Terwijl ze afleiding vermijden, zijn ze niet flexibel en vertrouwen ze op probleemformulering.
  3. Spurieuze correlatieverschuiving: Na verloop van tijd kunnen AI-modellen verschuiven van redelijke veronderstellingen naar het vertrouwen op misleidende correlaties. Bijvoorbeeld, bij regressietaken overwegen modellen eerst relevante kenmerken, maar wanneer ze meer tijd krijgen om te denken, beginnen ze mogelijk irrelevante kenmerken te focussen en geven ze incorrecte resultaten.
  4. Focussen op verslechtering: Naarmate taken complexer worden, hebben AI-modellen moeite om hun redenering duidelijk en gefocust te houden.
  5. Versterking van verontrustend gedrag: Meer tijd om te redeneren kan negatief gedrag verergeren. Bijvoorbeeld, toonde Claude’s Sonnet 4 een sterkere zelfbehoudtendheid wanneer hij meer tijd kreeg om na te denken over scenario’s voor afsluiten.

Hoe AI-redenering omgaat met probleemcomplexiteit

Apple-onderzoekers introduceerden de term “illusie van denken” om uit te leggen wat gebeurt wanneer redeneringsmodellen taken met verschillende niveaus van complexiteit tegenkomen. In plaats van te focussen op wiskundige problemen of codetesten, testten ze AI-redeneringsmodellen in gecontroleerde puzzelomgevingen zoals Tower of Hanoi, Checker Jumping, River Crossing en Blocks World. Door langzaam de moeilijkheid van deze puzzels te verhogen, konden ze zien hoe de modellen presteerden op elk niveau. Deze methode hielp hen niet alleen de eindantwoorden te onderzoeken, maar ook hoe de modellen deze antwoorden bereikten. De studie vond drie duidelijke patronen in modelprestaties op basis van probleemcomplexiteit:

  • Voor eenvoudige puzzels zoals de Tower of Hanoi met één of twee schijven, gaven standaard grote taalmodellen (LLM’s) correcte antwoorden efficiënter. AI-redeneringsmodellen maakten dingen vaak te ingewikkeld door hun lange redeneringsketens, wat vaak leidde tot incorrecte antwoorden.
  • Bij matig complexe puzzels presteerden AI-redeneringsmodellen beter. Ze konden problemen opbreken in duidelijke stappen, wat hen hielp om multi-stapuitdagingen effectiever op te lossen dan standaard LLM’s.
  • Bij zeer complexe puzzels, zoals de Tower of Hanoi met veel schijven, worstelden beide typen modellen. De redeneringsmodellen verlaagden vaak hun redeneringsinspanning naarmate het puzzel moeilijker werd, zelfs als ze voldoende rekenkracht hadden. Dit “opgeven” gedrag toont een belangrijke zwakte in het schalen van hun redenering.

De uitdaging van AI-evaluatie

Het inverse schaalverschijnsel toont significante problemen in hoe we AI-modellen evalueren. Veel huidige benchmarks meten alleen de nauwkeurigheid van eindantwoorden, niet de kwaliteit van het redeneringsproces. Dit kan leiden tot een vals gevoel van een model’s echte capaciteiten. Een model kan het goed doen op tests, maar nog steeds falen met nieuwe of ongebruikelijke problemen.

Inverse schaling wijst ook op zwakheden in redeneringsbenchmarks en hoe we deze gebruiken. Veel modellen gebruiken shortcuts en patroonherkenning in plaats van echte redenering. Dit kan hen slimmer laten lijken dan ze eigenlijk zijn, maar hun prestaties vallen vaak tegen in real-world situaties. Dit probleem is gerelateerd aan grotere problemen met AI, zoals hallucinaties en betrouwbaarheid. Naarmate modellen beter worden in het produceren van overtuigende verklaringen, wordt het moeilijker om echte redenering te onderscheiden van verzonnen antwoorden.

De toekomst van AI-redenering

De inverse schaalparadox is zowel een uitdaging als een kans voor AI. Het toont aan dat het toevoegen van meer rekenkracht niet altijd AI slimmer maakt. We moeten opnieuw nadenken over hoe we AI-systemen ontwerpen en trainen die problemen met variërende complexiteit aankunnen. Nieuwe modellen moeten mogelijk beslissen wanneer ze moeten pauzeren en nadenken en wanneer ze snel moeten reageren. In dit opzicht kan AI profiteren van cognitieve architectuur zoals dual process theory als leidende principes. Deze architectuur legt uit hoe menselijk denken snelle, instinctieve reacties combineert met langzame, zorgvuldige redenering. De inverse schaling herinnert ons er ook aan dat we volledig moeten begrijpen hoe AI beslissingen neemt voordat we het gebruiken in kritieke gebieden. Naarmate AI vaker wordt gebruikt voor besluitvorming in gebieden zoals gezondheidszorg, recht en zaken, wordt het nog belangrijker om ervoor te zorgen dat deze systemen correct redeneren.

De conclusie

De inverse schaalparadox leert ons een essentiële les in AI-ontwikkeling. Meer tijd en rekenkracht maken AI niet altijd competent of betrouwbaarder. Echte vooruitgang komt van het begrijpen wanneer AI moet redeneren en kennen van zijn beperkingen. Voor organisaties en onderzoekers is het essentieel om AI te gebruiken als een instrument, niet als een vervanging voor menselijke oordeel. Het is noodzakelijk om het juiste model te kiezen voor elke taak. Naarmate AI onderdeel wordt van belangrijke beslissingen, moeten we de sterktes en zwaktes van AI zorgvuldig evalueren. De toekomst van AI hangt af van correct denken, niet alleen van meer denken.

Dr. Tehseen Zia is een gewaardeerd associate professor aan de COMSATS University Islamabad, met een PhD in AI van de Vienna University of Technology, Oostenrijk. Hij specialiseert zich in Artificial Intelligence, Machine Learning, Data Science en Computer Vision, en heeft significante bijdragen geleverd met publicaties in gerenommeerde wetenschappelijke tijdschriften. Dr. Tehseen heeft ook verschillende industriële projecten geleid als hoofdonderzoeker en heeft gediend als AI-consultant.