Verbind je met ons

Artificial Intelligence

Wanneer AI-agenten zelf AI gaan bouwen: de explosie van recursieve intelligentie waar niemand op voorbereid is.

mm

Decennialang ontwikkelde kunstmatige intelligentie zich in zorgvuldige, grotendeels lineaire stappen. Onderzoekers bouwden modellen. Ingenieurs verbeterden de prestaties. Organisaties implementeerden systemen om specifieke taken te automatiseren. Elke verbetering was sterk afhankelijk van menselijk ontwerp en toezicht. Dat patroon wordt nu doorbroken. Stilzwijgend maar vastberaden overschrijden AI-systemen een drempel waarbij ze niet langer alleen door mensen gebouwde tools zijn. Ze worden zelf bouwers.

AI-agenten beginnen andere AI-systemen te ontwerpen, te evalueren en te implementeren. Daarbij creëren ze feedbackloops waarin elke generatie de volgende verbetert. Deze verschuiving kondigt zich niet aan met dramatische krantenkoppen. Ze ontvouwt zich via onderzoekspublicaties, ontwikkelaarstools en bedrijfsplatformen. De implicaties ervan zijn echter ingrijpend. Wanneer intelligentie zichzelf recursief kan verbeteren, volgt de vooruitgang niet langer de menselijke tijdlijnen of intuïties. Ze versnelt.

Dit artikel onderzoekt hoe we op dit punt zijn beland, waarom recursieve intelligentie van belang is en waarom de maatschappij er veel minder op voorbereid is dan zou moeten. De intelligentie-explosie, ooit een filosofisch idee, is nu een concrete technische uitdaging geworden.

De evolutie van de intelligentie-explosie

Het idee dat een machine zijn eigen intelligentie zou kunnen verbeteren, dateert van vóór de moderne computertechnologie. Begin jaren zestig stelde de Britse wiskundige IJ Good dit idee. geïntroduceerd het concept van een “intelligentie explosieZijn redenering was als volgt: als een machine intelligent genoeg zou worden om zijn eigen ontwerp, al was het maar een beetje, te verbeteren, zou de verbeterde versie beter in staat zijn om de volgende versie te verbeteren. Deze cyclus zou zich snel kunnen herhalen, wat zou leiden tot een groei die het menselijk begrip of de menselijke controle ver te boven gaat. Destijds was dit een filosofisch gedachte-experiment, dat meer in theorie dan in de praktijk werd besproken.

Enkele decennia later kreeg het idee een technische basis dankzij het werk van computerwetenschapper Jürgen Schmidhuber. Zijn voorstel van de Gödel Machine Het beschreef een systeem dat elk deel van zijn eigen code kon herschrijven, mits het formeel kon bewijzen dat de wijziging de toekomstige prestaties zou verbeteren. In tegenstelling tot traditionele leersystemen, die parameters aanpassen binnen vaste architecturen, kon de Gödel-machine zijn eigen leerregels wijzigen. Hoewel nog steeds theoretisch, herdefinieerde dit werk de intelligentie-explosie als iets dat bestudeerd, geformaliseerd en uiteindelijk gebouwd kon worden.

De definitieve overgang van theorie naar praktijk vond plaats met de opkomst van moderne AI-agenten. Deze systemen genereren niet alleen output als reactie op prompts. Ze plannen, redeneren, handelen, observeren resultaten en passen hun gedrag in de loop van de tijd aan. Met de opkomst van agent-architecturen verplaatste de intelligentie-explosie zich van filosofie naar techniek. Vroege experimenten, zoals Darwin Gödel-machine De concepten wijzen op systemen die evolueren door iteratieve zelfverbetering. Wat dit moment anders maakt, is recursie. Wanneer een AI-agent andere agenten kan creëren en verfijnen, en van elke iteratie leert, stapelt de verbetering zich op.

Wanneer AI-agenten AI gaan bouwen

Twee belangrijke trends liggen ten grondslag aan deze transitie. De eerste is de opkomst van agentische AI-systemen. Deze systemen streven doelen na over langere perioden, verdelen taken in stappen, coördineren tools en passen zich aan op basis van feedback. Het zijn geen statische modellen, maar processen.

De tweede trend is geautomatiseerd machinaal leren. Er bestaan ​​nu systemen die architecturen kunnen ontwerpen, hyperparameters kunnen afstemmen, trainingspipelines kunnen genereren en zelfs nieuwe algoritmen kunnen voorstellen met minimale menselijke tussenkomst. Wanneer agentisch redeneren wordt gecombineerd met geautomatiseerde modelcreatie, krijgt AI het vermogen om AI te bouwen.

Dit is niet langer een hypothetisch scenario. Autonome agenten zoals AutoGPT laten zien hoe één enkel doel cycli van planning, uitvoering, evaluatie en herziening kan in gang zetten. In onderzoeksomgevingen werken systemen zoals Sakana AI's Scientist-v2 en AlphaEvolve van DeepMind Laat zien hoe agenten experimenten ontwerpen, algoritmes voorstellen en oplossingen verfijnen door middel van iteratieve feedback. neurale architectuur zoekenAI-systemen ontdekken nu al modelstructuren die wedijveren met, of zelfs beter zijn dan, door mensen ontworpen netwerken. Deze systemen lossen niet alleen problemen op, ze verbeteren ook de mechanismen die gebruikt worden om problemen op te lossen. Elke cyclus levert betere tools op, die op hun beurt weer betere cycli mogelijk maken.

Om dit proces op te schalen, vertrouwen onderzoekers en bedrijven steeds meer op orchestrator architecturen. Een centrale meta-agent ontvangt een doelstelling op hoog niveau. Deze deelt de taak op in subproblemen, genereert gespecialiseerde agenten om deze aan te pakken, evalueert de resultaten met behulp van data uit de praktijk en integreert de beste resultaten. Slechte ontwerpen worden verworpen en succesvolle ontwerpen worden versterkt. Na verloop van tijd wordt de orchestrator steeds beter in het ontwerpen van agenten.

Hoewel het nog onzeker is wanneer AI-agenten andere AI-systemen volledig zullen bouwen en verbeteren, wijzen de huidige onderzoeksrichtingen en beoordelingen van toonaangevende experts hier wel op. AI-onderzoekers en beoefenaars Dit suggereert dat de transitie sneller nadert dan velen verwachten. Vroege, beperkte versies van deze mogelijkheid duiken al op in onderzoekslaboratoria en bedrijfsomgevingen, waar agenten beginnen met het ontwerpen, evalueren en verfijnen van andere systemen met beperkte menselijke tussenkomst.

De opkomst van onvoorspelbaarheid

Recursieve intelligentie brengt uitdagingen met zich mee die traditionele automatisering nooit heeft gekend. Een van deze uitdagingen is onvoorspelbaarheid op systeemniveau. Wanneer veel agenten met elkaar interageren, kan hun collectieve gedrag afwijken van de intenties achter hun individuele ontwerpen. Dit fenomeen staat bekend als opkomend gedrag.

Emergentie ontstaat niet door één enkel gebrekkig onderdeel, maar door interacties tussen vele competente onderdelen. Neem bijvoorbeeld geautomatiseerde handelssystemen. Elke handelsagent kan rationele regels volgen die zijn ontworpen om de winst binnen bepaalde beperkingen te maximaliseren. Wanneer echter duizenden van dergelijke agenten met hoge snelheid met elkaar interageren, kunnen er feedbackloops ontstaan. De reactie van de ene agent kan de reactie van een andere agent uitlokken, die op zijn beurt weer een andere agent kan triggeren, totdat het systeem destabiliseert. Marktcrashes kunnen plaatsvinden zonder dat er ook maar één agent defect is. Deze mislukking wordt niet veroorzaakt door kwade opzet. Ze is het gevolg van een mismatch tussen lokale optimalisatie en systeembrede doelen. Dezelfde dynamiek kan ook van toepassing zijn op andere gebieden.

De crisis rond de afstemming van meerdere agenten

Traditioneel onderzoek naar AI-afstemming richtte zich op het afstemmen van één enkel model op menselijke waarden. De vraag was simpel: hoe zorgen we ervoor dat dit ene systeem zich gedraagt ​​zoals wij dat willen? Die vraag wordt nu... aanzienlijk moeilijker Wanneer het systeem tientallen, honderden of duizenden interagerende agenten bevat, is het belangrijk om individuele agenten op elkaar af te stemmen. Dit garandeert geen uniform systeemgedrag. Zelfs wanneer elk onderdeel zijn eigen regels volgt, kan het collectieve resultaat schadelijk zijn. Bestaande veiligheidsmethoden zijn niet goed geschikt om deze fouten te detecteren of te voorkomen.

Beveiligingsrisico's nemen ook toe. Een gecompromitteerde agent in een netwerk met meerdere agenten kan de informatie waarop andere agenten vertrouwen, vergiftigen. Een enkele beschadigde gegevensopslag kan afwijkend gedrag door het hele systeem verspreiden. De infrastructuurkwetsbaarheden die één agent bedreigen, kunnen zich doorzetten naar fundamentele modellen. Het aanvalsoppervlak wordt groter met elke nieuwe agent die wordt toegevoegd.

Ondertussen wordt de kloof in bestuur steeds groter. Onderzoek van Microsoft Uit onderzoek van diverse organisaties is gebleken dat slechts ongeveer één op de tien bedrijven een duidelijke strategie heeft voor het beheer van hun bedrijfsvoering. AI-agentidentiteiten en machtigingen. Naar verwachting zullen er eind dit jaar meer dan veertig miljard autonome identiteiten bestaan. De meeste hebben ruime toegang tot data en systemen, maar zonder de beveiligingsprotocollen die voor menselijke gebruikers gelden. De systemen ontwikkelen zich snel. De toezichtsmechanismen niet.

Verlies van toezicht

Het grootste risico van recursieve zelfverbetering is niet zozeer de pure capaciteit, maar het geleidelijke verlies van zinvol menselijk toezicht. Toonaangevende onderzoeksinstellingen ontwikkelen actief systemen die hun eigen architecturen kunnen aanpassen en optimaliseren met minimale tot geen menselijke tussenkomst. Elke verbetering stelt het systeem in staat om capabelere opvolgers te produceren, waardoor een feedbacklus ontstaat zonder een punt waarop mensen nog betrouwbaar de controle hebben.

Naarmate de menselijke tussenkomst afneemt, worden de gevolgen ingrijpend. Wanneer verbeteringscycli in machinesnelheid verlopen, kunnen mensen niet langer elke wijziging beoordelen, elke ontwerpbeslissing begrijpen of ingrijpen voordat kleine afwijkingen uitgroeien tot systemische risico's. Toezicht verschuift van directe controle naar retrospectieve observatie. Onder dergelijke omstandigheden wordt afstemming moeilijker te verifiëren en gemakkelijker te ondermijnen, omdat systemen gedwongen worden hun doelstellingen en beperkingen door te voeren via opeenvolgende zelfaanpassingen. Zonder betrouwbare mechanismen om de intentie gedurende deze iteraties te behouden, kan het systeem effectief blijven functioneren terwijl het stilletjes afdrijft van menselijke waarden, prioriteiten en governance.

The Bottom Line

AI is een fase ingegaan waarin het zichzelf kan verbeteren door betere versies van zichzelf te creëren. Recursieve, agentgestuurde intelligentie belooft buitengewone voordelen, maar brengt ook risico's met zich mee die sneller toenemen dan menselijk toezicht, bestuur en intuïtie. De uitdaging is niet of deze verschuiving kan worden gestopt, maar of veiligheid, afstemming en verantwoording gelijke tred kunnen houden met de capaciteiten. Zo niet, dan zal de explosie van intelligentie ons vermogen om deze te sturen te boven gaan.

Dr. Tehseen Zia is een vaste universitair hoofddocent aan de COMSATS Universiteit Islamabad en heeft een doctoraat in AI behaald aan de Technische Universiteit van Wenen, Oostenrijk. Hij is gespecialiseerd in kunstmatige intelligentie, machinaal leren, datawetenschap en computervisie en heeft belangrijke bijdragen geleverd met publicaties in gerenommeerde wetenschappelijke tijdschriften. Dr. Tehseen heeft ook diverse industriële projecten geleid als hoofdonderzoeker en als AI-consultant.