Connect with us

Kunstmatige intelligentie

Gezaagde Intelligentie: Waarom AIs Olympische Problemen Aanpakken maar op Schoolwiskunde Stuiten

mm

De kunstmatige intelligentie-gemeenschap vierde een opmerkelijke mijlpaal in 2025 toen zowel Google DeepMind als OpenAI-systemen een gouden medaille behaalden op de Internationale Wiskunde Olympiade. Deze AI-modellen losten problemen op die alleen een handvol van ‘s werelds slimste jonge wiskundigen konden oplossen. Toch struikelen dezelfde systemen vaak als ze worden gevraagd om basisrekenwerk uit te voeren dat elke middelbare scholier gemakkelijk aankan. Deze opvallende paradox onthult iets fundamenteels over de aard van kunstmatige intelligentie vandaag. We getuigen van de opkomst van wat alleen maar gezaagde intelligentie kan worden genoemd, waar machines superhumane vaardigheden vertonen in bepaalde domeinen, terwijl ze falen bij taken die we als elementair beschouwen.

De Olympische Overwinning

De Internationale Wiskunde Olympiade is de leidende standaard in pre-universitaire wiskundewedstrijden. Elk jaar proberen de slimste jonge wiskundigen uit de hele wereld zes problemen op te lossen die diepe inzichten, creatief denken en geavanceerde bewijsmethoden vereisen. In 2025 behaalden AI-systemen van zowel Google DeepMind als OpenAI 35 van de 42 punten, genoeg om gouden medailles te verdienen. DeepMinds AlphaGeometry 2 loste een complex meetkundig probleem op in slechts 19 seconden, terwijl AlphaProof problemen oploste in getaltheorie en algebra die de meeste menselijke deelnemers voor een raadsel stelden.

Deze prestaties bouwen voort op jaren van incrementele vooruitgang. De systemen gebruiken formele wiskundige talen zoals Lean om strenge bewijzen te construeren. Ze gebruiken technieken zoals curriculum learning, waarbij de AI traint op problemen van toenemende moeilijkheid. Deze training stelt de AI in staat om complexe relaties tussen wiskundige objecten te begrijpen, subtiele patronen te herkennen en elegante bewijzen te construeren.

De Elementaire Strijd

Dezelfde AI-systemen die goud behalen bij Olympische problemen, falen vaak bij taken die triviaal lijken. Als je ze bijvoorbeeld vraagt om grote getallen te vermenigvuldigen, kunnen ze verkeerde antwoorden produceren. Als je probeert om andere basisrekenwerkoperaties uit te voeren, wordt hun prestatie onvoorspelbaar. Het probleem is niet beperkt tot eenvoudige berekeningen. Deze systemen worstelen vaak met woordproblemen die het volgen van meerdere hoeveelheden, het begrijpen van de context van de echte wereld of het toepassen van basisrekenwerkoperaties in een reeks vereisen.

Dit zwakke punt komt voort uit de manier waarop deze AI-modellen fundamenteel werken. Grote taalmodellen voorspellen welke tekst moet komen op basis van patronen die ze in de trainingsgegevens hebben gezien. Als ze “2 + 2” tegenkomen, herkennen ze dit patroon en voorspellen ze correct “4”, niet omdat ze optelling begrijpen, maar omdat deze sequentie oneindig vaak in hun trainingsgegevens voorkomt. Als je ze ongebruikelijke berekeningen presenteert die zelden in tekst voorkomen, neemt hun prestatie snel af. Ze zijn fundamenteel patroonherkenningsmachines die uitblinken wanneer patronen duidelijk en consistent zijn, maar worstelen wanneer ze worden gedwongen om ongezien problemen op te lossen.

De Architectuurparadox

Het contrast tussen Olympische successen en rekenwerkfalen onthult een dieper architecturaal probleem. Moderne AI-systemen excelleren in problemen die kunnen worden opgelost door patroonherkenning, logische deductie en systematische zoektocht door oplossingsruimtes. Olympische problemen, ondanks hun moeilijkheid, hebben vaak elegante structuren die AI kan exploiteren. De systemen kunnen verschillende bewijsstrategieën verkennen, logische stappen verifiëren en bouwen op gevestigde wiskundige kaders. Ze opereren in een wereld van symbolen en regels waar consistentie en logica domineren.

In contrast, stelt basisrekenwerk, paradoxaal genoeg, andere uitdagingen. Het vereist precieze manipulatie van hoeveelheden, niet patroonherkenning. Het vereist een begrip van numerieke grootte en relaties die niet kunnen worden benaderd. Wanneer een AI-systeem rekenwerk benadert via taalmodellering, behandelt het getallen als tokens om te voorspellen in plaats van hoeveelheden om te berekenen. Deze fundamentele mismatch tussen de taakvereisten en de modelarchitectuur creëert de prestatiegap die we observeren.

Trainingsgegevens en Hun Beperkingen

AI-mogelijkheden hangen grotendeels af van de kwaliteit en aard van de trainingsgegevens. Wiskundige bewijzen en geavanceerde problemen verschijnen vaak in goed gestructureerde formaten online. Academische papers, leerboeken en educatieve bronnen bieden duidelijke voorbeelden van wiskundig redeneren. Het internet bevat uitgebreide discussies over wiskundige concepten, bewijsmethoden en probleemoplossingsstrategieën. Deze rijke corpus stelt AI-systemen in staat om geavanceerd wiskundig denken te leren.

Basiswiskunde daarentegen kampt met een ander probleem. Hoewel basisrekenwerk vaak online voorkomt, komt het zelden met de gedetailleerde redeneringsketens die AI helpen om de onderliggende processen te begrijpen. Eenvoudige berekeningen worden meestal als feiten vermeld in plaats van als procedures uitgelegd. De trainingsgegevens bevatten de resultaten van berekeningen, maar niet het berekeningsproces zelf. Dit creëert een fundamentele kloof in het begrip dat zich manifesteert als slechte prestaties op basis taken.

Implicaties voor AI-ontwikkeling

Dit ongelijkmatige patroon van intelligentie heeft cruciale implicaties voor de manier waarop we AI-systemen ontwerpen en gebruiken. We kunnen niet aannemen dat succes in complexe taken betekent dat ze competent zijn in eenvoudigere taken. Een AI die in staat is om wiskundige stellingen te bewijzen, kan falen bij het balanceren van een chequeboek. Een systeem dat computercode schrijft, kan worstelen met basis tellen. Deze realiteit vereist zorgvuldige overweging van AI-mogelijkheden en -beperkingen in real-world toepassingen.

Het fenomeen onthult ook het belang van hybride benaderingen. In plaats van te verwachten dat één model elke taak aan kan, kunnen we gespecialiseerde systemen nodig hebben voor verschillende soorten taken. Het combineren van symbolische berekening voor rekenwerk met taalmodellen voor redeneren kan meer betrouwbare oplossingen creëren. De toekomst van AI kan liggen in het coördineren van meerdere gespecialiseerde systemen in plaats van het nastreven van monolithische algemene intelligentie.

De Weg Vooruit

Het erkennen van gezaagde intelligentie biedt een duidelijker richting voor het bouwen van meer capabele AI-systemen. Onderzoekers ontwikkelen methoden om computationele tools in taalmodellen te integreren, waardoor ze rekenwerk kunnen delegeren aan rekenmachines. Nieuwe trainingsstrategieën richten zich op het leren van modellen wanneer ze externe tools moeten gebruiken in plaats van elke vaardigheid te internaliseren. Deze benadering spiegelt menselijke intelligentie, waarbij we rekenmachines gebruiken voor berekeningen en onze mentale inspanning reserveren voor hogere niveau redeneren.

De paradox van gezaagde intelligentie leert ons uiteindelijk nederigheid over kunstmatige intelligentie. Deze systemen zijn noch universeel superieur noch uniform beperkt. In plaats daarvan vertonen ze een complex mengsel van sterke en zwakke punten waarvan we ons bewust moeten zijn om AI-mogelijkheden effectief te gebruiken en te verbeteren. Succes vereist niet alleen het uitbreiden van wat AI kan doen, maar ook het aanpakken van zijn fundamentele lacunes. De machines die stellingen kunnen bewijzen maar falen bij basisoptelling, laten zien dat intelligentie, of het nu kunstmatig of menselijk is, een multifacetteerd fenomeen is dat niet gemakkelijk te definiëren is.

De Bottom Line

AI’s succes bij het oplossen van Olympische problemen maar falen bij eenvoudige wiskunde toont aan dat intelligentie niet gelijkmatig ontwikkelt. Deze systemen kunnen briljant zijn in één gebied en zwak in een ander. Het begrijpen van dit ongelijkmatige patroon is belangrijk voor de manier waarop we AI-systemen ontwerpen en gebruiken. In plaats van te verwachten dat één model alles kan doen, kunnen we verschillende benaderingen moeten combineren die de sterktes van elk systeem benutten. Echte vooruitgang zal komen van het bouwen van AI die betrouwbaar werkt in de praktijk, niet van het aannemen dat het goed is in elke taak.

Dr. Tehseen Zia is een gewaardeerd associate professor aan de COMSATS University Islamabad, met een PhD in AI van de Vienna University of Technology, Oostenrijk. Hij specialiseert zich in Artificial Intelligence, Machine Learning, Data Science en Computer Vision, en heeft significante bijdragen geleverd met publicaties in gerenommeerde wetenschappelijke tijdschriften. Dr. Tehseen heeft ook verschillende industriële projecten geleid als hoofdonderzoeker en heeft gediend als AI-consultant.