Verbind je met ons

Gedachte leiders

De geheugencrisis van AI: we bouwen aan een digitale duistere tijd.

mm

Miljoenen AI-agenten worden in productiesystemen ingezet. Vrijwel geen enkele kan operationele ervaring delen. Daarom is die architectuurkeuze zo belangrijk – en wat er verandert als we de juiste keuze maken.

Om 2:06 uur plaatst een klant een online bestelling voor een laptop.

De medewerker die de bestelling verwerkt, raadpleegt de operationele database: een schone aankoopgeschiedenis, een bedrag binnen de normale marges, een eerder gebruikt verzendadres en een apparaat en locatie die overeenkomen met recente succesvolle bestellingen. Alles lijkt in orde. De medewerker keurt de bestelling goed.

Tegelijkertijd verwerkt een gedragsagent clickstreamgegevens in het datawarehouse van het bedrijf. Uit de sessie leidt deze agent een patroon af: de gebruiker kwam direct op een diepe afrekenpagina terecht zonder verder te browsen of producten te vergelijken. Dit signaal is op zichzelf zwak, maar het is een bekende voorbode van accountovernames wanneer het gecombineerd wordt met verder normale aankopen.

De gedragsagent registreert deze interpretatie als afgeleide kennis voor latere analyse en modeltraining.

De kassamedewerker krijgt het signaal nooit te zien. Niet omdat het signaal niet is verwerkt, en ook niet omdat het is genegeerd, maar omdat de informatie zich bevindt in een systeem dat de kassamedewerker tijdens de autorisatie niet raadpleegt.

Elke agent gedraagt ​​zich correct op basis van wat hij kan zien. Elke agent schrijft naar het systeem dat hij beheert. Maar het inzicht dat de ene agent verkrijgt, is onzichtbaar voor de andere agent op het moment van besluitvorming.

De laptop wordt verzonden.

Zesendertig uur later wordt de transactie betwist. Onderzoek bevestigt dat de rekening eerder die dag was gehackt. De aanvaller hield de transactie binnen de normale grenzen, vertrouwend op het feit dat de enige waarschuwing bestond uit gedragsinformatie die buiten de besluitvormingscontext van de kassamedewerker viel.

Het probleem lag niet bij ontbrekende gegevens, trage verwerking of een slecht model. Het was een geïsoleerde agentenstructuur: kennis werd wel opgebouwd, maar niet gedeeld.

En dit legt een probleem bloot waar bijna niemand het over heeft. We hebben architecturen gebouwd waarin AI-agenten die beslissingen nemen geen toegang hebben tot wat andere AI-agenten al hebben ontdekt.

Het probleem dat de drukpers oploste

Vóór de uitvinding van de drukpers was kennis kwetsbaar. Wanneer een wetenschapper stierf, ging veel van wat hij of zij had geleerd met hem of haar verloren. Een wiskundige in Londen kon decennia besteden aan het ontdekken van principes die een wiskundige in Parijs vijftig jaar later onafhankelijk van elkaar opnieuw zou ontdekken. Vooruitgang was er wel degelijk, maar ze was lokaal, traag en werd steeds opnieuw tenietgedaan.

De drukpers Het maakte individuen niet slimmer. Het externaliseerde het geheugen. Kennis was niet langer gebonden aan één enkel brein en begon voort te bestaan ​​na het leven van de schepper. Inzichten konden worden gedeeld, herzien en verder ontwikkeld, generatie na generatie. Dat is wat de cumulatieve vooruitgang mogelijk maakte.

We lopen het risico dezelfde fout te maken die vóór de drukpers werd gemaakt, maar dan met AI.

De meeste organisaties zetten tegenwoordig AI-agents in op hun productiesystemen., en nog veel meer experimenteren actief op gebieden zoals klantenservice, softwareontwikkeling, onderzoek en fraudedetectie. Deze agenten worden doorgaans ingezet als onafhankelijke diensten die aansluiten bij moderne systemen. microservice-architecturenelk met zijn eigen data en operationele grenzen. Zelfs binnen dezelfde organisatie halen agenten inzichten uit hun eigen productie-ervaring, maar delen ze de kennis die ze vergaren zelden met andere agenten die soortgelijke beslissingen nemen.

Het gevolg hiervan is dat operationele inzichten gefragmenteerd blijven. Lokale beslissingen kunnen verbeteren, maar ervaring wordt niet over het hele systeem verspreid. Elke doorbraak die beperkt blijft tot één enkele actor, is een doorbraak die niet kan worden doorgevoerd.

Deze keer is de beperkende factor niet intelligentie of snelheid, maar geheugen. Zonder een manier voor AI-systemen om hun ontdekkingen te externaliseren en te delen, wordt de vooruitgang vaker teruggedraaid dan dat er vooruitgang wordt geboekt.

Hoe gedeeld geheugen er in de praktijk uitziet

Grotere contextvensters kunnen het individuele redeneren verrijken, maar ze creëren geen gedeeld begrip. consistente ervaring bij agenten.

Gedeeld geheugen verandert de uitkomsten niet door modellen te verbeteren, maar door te veranderen wat agenten kunnen zien op het moment van besluitvorming.

In een gecompartimenteerd systeem redeneert elke agent correct binnen zijn eigen grenzen. De afrekenagent beoordeelt het transactierisico. De gedragsagent analyseert klikpatronen. Elk schrijft zijn conclusies naar het systeem dat het beheert, en die conclusies blijven onzichtbaar voor andere agenten die parallel opereren. Beslissingen zijn lokaal correct, maar globaal onvolledig.

Met een gedeelde geheugenlaag verdwijnt die grens.

Tijdens de verwerking van een sessie leidt de gedragsagent een zwak maar betekenisvol signaal af: een navigatiepatroon dat verband houdt met eerdere pogingen tot accountovername. In plaats van deze informatie alleen voor offline analyse op te slaan, schrijft de agent het signaal naar gedeeld geheugen, gekoppeld aan de actieve sessie.

Even later, wanneer de kassamedewerker de aankoop beoordeelt, raadpleegt hij hetzelfde geheugen. De transactie lijkt nog steeds normaal. Maar hij ziet nu extra context: een gedragswaarschuwing die anders afwezig zou zijn. Geen van beide signalen is op zichzelf doorslaggevend. Samen overschrijden ze de drempel voor verdere verificatie.

Aan de agenten zelf is niets veranderd. Er worden geen modellen opnieuw getraind. Er is geen centrale controller die ingrijpt. Het verschil zit hem in de zichtbaarheid: een inzicht dat door één agent wordt verkregen, komt beschikbaar voor een andere agent zolang het nog relevant is.

Cruciaal is dat dit inzicht blijft bestaan. Wanneer de uitkomst later bekend is – fraude of rechtmatigheid – wordt het verband tussen het signaal en het resultaat vastgelegd. Na verloop van tijd bouwt het systeem een ​​empirisch archief op van welke zwakke indicatoren van belang zijn en onder welke omstandigheden. Toekomstige beslissingen worden gebaseerd op ervaringen die verder reiken dan een enkele interactie of persoon.

Gedeeld geheugen is geen datawarehouse en geen operationele database. Het is een substraat met lage latentie voor afgeleide context: signalen, interpretaties en associaties die de interactie die ze heeft gegenereerd overleven en die door andere agenten die gerelateerde beslissingen nemen, kunnen worden opgevraagd.

Zo stapelt ervaring zich op: niet binnen één enkel model, maar binnen het systeem als geheel.

De architectonische afweging achter agentschapssilo's

Agent-silo's zijn geen implementatiefout. Ze zijn het voorspelbare gevolg van bedrijfsarchitecturen die zijn ontworpen voor een ander type gebruiker.

Productiesystemen hebben decennialang de werklast gescheiden op basis van functie. Operationele systemen waren geoptimaliseerd voor transacties met lage latentie en consistentie, terwijl analytische systemen waren geoptimaliseerd voor grootschalige aggregatie en het ontdekken van historische patronen.OLTP versus OLAPDeze scheiding weerspiegelde de manier waarop inzichten werden verwerkt: analytische resultaten werden geproduceerd voor mensen, niet voor machines, en werden daarom geacht asynchroon en buiten het kritieke pad van de besluitvorming te arriveren.

AI-agenten erven deze architectonische tweedeling, maar ze passen er niet in.

Het gevolg is niet alleen vertraagd inzicht, maar ook structurele blinde vlekken. Inzichten die in analysesystemen worden gegenereerd, worden per definitie pas ontdekt nadat er al realtime beslissingen zijn genomen. Signalen die de uitkomst zouden kunnen beïnvloeden bestaan ​​wel, maar kunnen niet op het moment van besluitvorming aan het licht komen omdat ze zich bevinden in systemen die niet bedoeld zijn om continu te worden geraadpleegd door autonome besluitvormers.

De architectuur is niet defect. Ze is alleen niet afgestemd op de eisen van autonome systemen.

De ontbrekende discipline: contextengineering

Gedeeld geheugen brengt een probleem met zich mee waar de meeste teams niet op voorbereid zijn: beslissen welke ervaring bewaard moet blijven.

AI-systemen genereren enorme hoeveelheden ruwe ervaringsgegevens: transacties, klikken, berichten, acties, resultaten. Het is niet praktisch of nuttig om dit allemaal op te slaan. Zonder bewuste selectie wordt het gedeelde geheugen ruis. De uitdaging is niet om meer data te verzamelen, maar om ervaringsgegevens om te vormen tot een context die andere systemen kunnen gebruiken.

Dit is de rol van contextengineering.

Context engineering is de discipline die bepaalt welke observaties duurzame signalen worden, hoe die signalen worden weergegeven en wanneer ze aan andere agenten moeten worden getoond. Het bevindt zich tussen ruwe gebeurtenissen en het redeneren van agenten, en transformeert vluchtige activiteit in gedeeld, beslissingsrelevant begrip.

In de praktijk betekent dit dat patronen, indicatoren en voorwaardelijke verbanden worden benadrukt, terwijl de meeste onbewerkte ervaringen naar de achtergrond verdwijnen. Een zwak signaal of een uitzonderlijk geval is op zichzelf misschien niet relevant, maar wordt waardevol wanneer het wordt verzameld en op het juiste moment naar voren komt.

Context engineering bepaalt of gedeeld geheugen alleen ervaringen opslaat, of dat het juist mogelijk maakt dat die ervaringen zich verder ontwikkelen.

Wat gebeurt er als we dit goed aanpakken?

Dit is geen zorg voor de toekomst. Het is een architectonische beslissing die – vaak impliciet – vandaag de dag wordt genomen door infrastructuurteams.

De standaardaanpak is isolatie. AI-agenten handelen onafhankelijk en baseren zich uitsluitend op hun eigen ervaring. Elk agent neemt snel en lokaal correcte beslissingen, maar de intelligentie bereikt een plateau. Dezelfde uitzonderlijke gevallen keren terug, zwakke signalen worden opnieuw ontdekt en fouten herhalen zich sneller en in grotere aantallen.

Het alternatief is een gedeelde geheugenlaag.

Wanneer de afgeleide context blijft bestaan ​​en zichtbaar is op het moment van besluitvorming, verdwijnt ervaring niet langer. Eenmaal ontdekte inzichten blijven beschikbaar. Zwakke signalen krijgen betekenis door accumulatie. Beslissingen verbeteren niet omdat modellen veranderen, maar omdat actoren niet langer geïsoleerd redeneren.

Dit vereist geen grotere modellen, realtime hertraining of gecentraliseerde controle. Het vereist dat geheugen wordt beschouwd als een volwaardige architectuurlaag, ontworpen voor toegang met lage latentie, persistentie en gedeelde zichtbaarheid.

Architectuurstandaarden worden snel hardnekkig. Systemen die zonder gedeeld geheugen zijn gebouwd, worden steeds moeilijker achteraf aan te passen naarmate het aantal agents toeneemt. De keuze is simpel: bouw systemen die ervaring opdoen – of systemen die eindeloos gereset worden.

Xiaowei Jiang is CEO en hoofdarchitect bij Tacnodewaar hij zich richt op het bouwen van contextinfrastructuur voor AI-agenten.