Kunstmatige intelligentie
De AI die zichzelf leert is geen sciencefiction meer

Opkomende AI-kaders gaan een radicale stap zetten: machines die zichzelf verbeteren, zonder menselijke inzicht nodig.
Jarenlang bleven zelfs de meest geavanceerde AI-modellen passieve motoren, die antwoorden voorspelden op basis van trainingsgegevens die ze niet konden wijzigen. Maar vandaag is het niet de grootte van het model dat het volgende hoofdstuk van kunstmatige intelligentie definieert; het is of het model zichzelf kan ontwikkelen.
Onlangs hebben onderzoekers van het MIT een nieuw AI-kader genaamd Self-Adapting LLMs (SEAL) onthuld. Deze benadering laat grote taalmodellen (LLM’s) toe om zichzelf autonoom te verbeteren, waardoor AI zijn eigen beperkingen kan diagnosticeren en zijn eigen neurale gewichten permanent kan bijwerken via een interne feedbacklus die wordt aangedreven door versterkingsleren. In plaats van dat onderzoekers fouten moeten opsporen, nieuwe prompts moeten schrijven of extra voorbeelden moeten invoeren, neemt het model de volledige verantwoordelijkheid voor zijn evolutie.
“Grote taalmodellen (LLM’s) zijn krachtig maar statisch; ze missen mechanismen om hun gewichten aan te passen in reactie op nieuwe taken, kennis of voorbeelden,” schreven de onderzoekers van het MIT in een blogbericht. “Experimenten met kennisincorporatie en few-shot-generalisatie laten zien dat SEAL een veelbelovende stap is naar taalmodellen die in staat zijn tot zelfgestuurde aanpassing in reactie op nieuwe gegevens.”
In vroege tests liet deze zelfbewerkende lus modellen toe om van complete mislukking naar succes te gaan op complexe abstracte redeneerpuzzels, waarbij ze zelfs veel grotere modellen zoals GPT-4.1 overtroffen met een score van 72,5 procent, waar traditionele methoden faalden. Bovendien zou SEAL de menselijke toezicht met 85 procent verminderen en de nauwkeurigheid en aanpasbaarheid verhogen.
De opkomst van zelflerende AI-kaders
SEAL maakt deel uit van een bredere trend naar autonome machine-intelligentie. Onderzoekers bij Sakana AI hebben bijvoorbeeld de Darwin-Gödel Machine geïntroduceerd – een AI-agent die zijn eigen code herschrijft met behulp van open-eindige evolutionaire strategieën.
“Het creëert verschillende zelfverbeteringen, zoals een patchvalidatiestap, betere bestandsweergave, verbeterde bewerkingsgereedschappen, het genereren en rangschikken van meerdere oplossingen om de beste te kiezen, en het toevoegen van een geschiedenis van wat eerder is geprobeerd (en waarom het faalde) bij het maken van nieuwe wijzigingen,” schreven de onderzoekers van Sakana AI in een blogbericht.
Evenzo kunnen de AI-agenten van Anthropic, aangedreven door Claude 4, nu autonoom workflows orkestreren over codebases en bedrijfsgereedschappen.
“Een systeem dat zichzelf op basis van het type asset, de omgeving en de geschiedenis aanpast, maakt het mogelijk om van een reactieve respons naar een continue preventiestrategie over te gaan,” zei Christian Struve, CEO en medeoprichter van Fracttal, tegen mij. “Het gaat niet om meer lagen of meer parameters, maar om meer autonome en meer bruikbare systemen.”
Wat deze inspanningen verbindt, is een kerngedachte: AI hoeft niet groter te worden om slimmer te worden. Het moet adaptiever worden.
“Schalen heeft grote voordelen gebracht, maar we bereiken de limiet van wat alleen de grootte kan bereiken. Zelfaanpassende leermodellen zoals SEAL bieden een overtuigende volgende stap door systemen in staat te stellen om te groeien en te verbeteren in de loop van de tijd,” zei Jorge Riera, oprichter en CEO van het full-stack dataconsultingplatform Dataco, tegen mij. “Zelfevoluerende modellen verplaatsen ook de voortgangsmeters van statische benchmarks naar maatstaven van adaptiviteit, leer-efficiëntie en veilige langetermijnverbetering. In plaats van alleen te testen wat een model weet bij implementatie, kunnen we evalueren hoe goed het leert, onthoudt en evolueert in de loop van de tijd.”
Impact op het AI-ecosysteem en de wereldwijde race naar autonomie
Dit niveau van autonomie herschrijft ook de economie van AI-implementatie. Stel je voor dat fraude-detectiesystemen zichzelf onmiddellijk bijwerken om nieuwe bedreigingen te weerstaan, of dat AI-tutors hun onderwijsstijl aanpassen op basis van het gedrag van een student. In de robotica kunnen zelfaanpassende kaders leiden tot autonome machines die nieuwe bewegingspatronen leren zonder te worden herprogrammeerd.
In het Midden-Oosten bouwen landen als de Verenigde Arabische Emiraten en Saoedi-Arabië snel fundamentale modellen die zijn ontworpen voor aanpassing. De Falcon van de VAE en Jais van G42 zijn open-source LLM’s die zijn gebouwd met regionale relevantie in gedachten, terwijl Saoedi-Arabië’s ALLaM en Aramco Digital’s Metabrain de wereld van autonome AI-agenten voor slimme steden, gezondheidszorg en logistiek betreden.
Deze inspanningen zijn nog niet gelijkwaardig aan die van MIT’s SEAL in termen van zelfbewerkende mogelijkheden, maar ze weerspiegelen een gedeelde traject: van passieve AI-systemen naar actieve, evoluerende agenten die complexiteit kunnen navigeren met beperkte menselijke begeleiding. En net als SEAL worden deze initiatieven ondersteund door robuuste governance-kaders, waarmee de groeiende bewustwording wordt benadrukt dat AI-autonomie moet worden gepaard met verantwoordelijkheid.
“Dit is een eerste stap naar zelfbeheersystemen die hun logica kunnen wijzigen zonder constante interventie,” zegt Struve. “Ik geloof dat kunstmatige intelligentie niet herdefinieert wat intelligentie is, maar het dwingt ons om onze relatie met het opnieuw te bekijken. Het belangrijkste is niet dat een model evolueert, maar dat het dit doet in overeenstemming met de doelen die wij als mensen definiëren.”
Jeff Townes, CTO van Gorilla Logic, benadrukt ook het belang van governance die gelijke tred houdt met AI-evolutie: “De vraag is niet of AI kan evolueren – het is of het bedrijf kan evolueren met het. Governance moet elke AI-aanpassing verankeren in duidelijke resultaten en KPI’s die leiders kunnen meten en vertrouwen, zodat innovatie schaalbaar is met vertrouwen in plaats van risico.”
Zijn we klaar voor AI die zichzelf herschrijft?
De meest provocerende vraag die SEAL oproept is niet technisch – het is of modellen kunnen beslissen hoe ze zichzelf moeten leren, wat is onze rol in het vormen van hun waarden, prioriteiten en richting?
Deskundigen waarschuwen dat naarmate zelfaanpassende AI-systemen autonomie winnen, de haast naar zelfverbetering niet de oprichting van ethische remmen mag voorbijstreven. “Ik geloof dat alle AI-systemen ten minste drie basisethische principes moeten incorporeren,” zegt Jacob Evans, CTO bij Kryterion.
“Ten eerste, en dit mag vanzelf spreken, maar AI’s moeten zichzelf identificeren als AI. Ten tweede moeten AI’s mensgericht zijn, menselijk oordeel aanvullen en niet vervangen. En ten slotte moet het zijn beperkingen en onzekerheden erkennen, terwijl het weigert om informatie te verstrekken die ernstig letsel kan faciliteren. Zonder deze waarborgen kan AI een instrument van manipulatie worden in plaats van betrouwbaar ondersteunend middel.”
“Om modellen in staat te stellen om zichzelf in productie te verbeteren, hebben ze een dynamische feedbacklus nodig, niet alleen een statische training. Een krachtige methode is het gebruik van een ‘digitale tweeling’ of een geavanceerd zandbakomgeving waarin de AI zijn eigen zelf gegenereerde verbeteringen veilig kan testen en valideren voordat deze ooit aan gebruikers worden geïmplementeerd,” deelde Ganesh Vanama, Computer Vision Engineer bij Automotus.
Wat betreft governance voegde Vanama eraan toe: “de ononderhandelbare controle is ‘mens-in-de-lus’ toezicht.” Hij zei dat terwijl we willen dat modellen zich aanpassen, “u moet continue monitoring hebben om ‘alignementverschuiving’ te detecteren waar het model afwijkt van zijn beoogde doelen of veiligheidsbeperkingen. Dit systeem moet een menselijke auditor de macht geven om elke autonome update te vetoën of onmiddellijk terug te draaien die faalt voor een veiligheids- of prestatiebeoordeling.”
Maar andere deskundigen geloven dat er nog tijd is om deze waarborgen te ontwikkelen, waarbij wordt betoogd dat het bouwen van een echt robuust, algemeen doel, zelfverbeterend AI nog een monumentale uitdaging is.
“Dergelijke modellen missen nog steeds de mogelijkheid om zichzelf betrouwbaar in real-time te herschrijven. Belangrijke uitdagingen blijven, waaronder het voorkomen van foutversterking, het vermijden van catastrofale vergetelheid, het waarborgen van stabiliteit tijdens updates en het behouden van transparantie rond interne veranderingen,” zegt Riera. “Tot die zijn aangepakt, blijft volledige zelfgestuurde aanpassing een frontier in plaats van realiteit.”
De onderzoekers van het MIT zien SEAL als een noodzakelijke evolutie. Zoals een van de hoofdwetenschappers van het MIT zei, weerspiegelt dit kader momenteel alleen menselijk leren nauwer dan alles wat ervoor is gekomen.
“Deze systemen geven een hint naar een verschuiving van statische, eenmalige modellen naar adaptieve architectuur die kan leren van ervaring, geheugen beheren en doelen nastreven in de loop van de tijd. De richting is duidelijk: naar modulaire, contextuele intelligentie die zichzelf continu kan aanpassen,” zei Riera tegen mij. “Hoewel nog in het experimentele stadium, markeert deze benadering een betekenisvolle stap naar meer autonome en veerkrachtige AI-systemen.”
Of dit leidt tot meer gepersonaliseerde systemen of geheel nieuwe vormen van machine-agentschap moet nog worden gezien. De tijdperk van zelflerende AI is aangebroken – en het herschrijft meer dan alleen zijn eigen code, het herschrijft de regels van wat machines kunnen worden.


