Anslut dig till vÄrt nÀtverk!

Tanke ledare

AI:s minneskris: Vi bygger en digital mörk tidsÄlder

mm

Miljontals AI-agenter gĂ„r in i produktionssystem. NĂ€stan ingen kan dela operativ erfarenhet. Det Ă€r dĂ€rför det arkitekturvalet Ă€r viktigt – och vad som förĂ€ndras om vi gör det rĂ€tt.

Klockan 2:06 gör en kund en onlinebestÀllning pÄ en bÀrbar dator.

Kassören gör en sökning i sin operativa databas: ren köphistorik, belopp inom normalintervallet, tidigare anvÀnd leveransadress, enhet och plats som överensstÀmmer med de senaste lyckade bestÀllningarna. Allt ser normalt ut. Agenten godkÀnner bestÀllningen.

Samtidigt bearbetar en beteendeagent klickströmsdata i företagets databas. FrÄn sessionen hÀrleder den ett mönster: anvÀndaren kom direkt till en djup utchecknings-URL utan surf- eller jÀmförelsebeteende. Denna signal Àr svag i sig sjÀlv, men den Àr en kÀnd föregÄngare i kontoövertagandescenarier i kombination med annars normala köp.

Beteendeagenten registrerar denna tolkning som hÀrledd kunskap för senare analys och modelltrÀning.

Kassören ser den aldrig. Inte för att signalen inte berĂ€knades, och inte för att den ignorerades – utan för att kunskapen finns i ett system som kassören inte konsulterar under auktoriseringen.

Varje agent beter sig korrekt med tanke pÄ vad den kan se. Varje agent skriver till det system den Àger. Men insikten som en agent fÄr Àr osynlig för den andra vid beslutstillfÀllet.

Den bÀrbara datorn levereras.

Trettiosex timmar senare Àr anklagelsen ifrÄgasatt. Utredningen bekrÀftar att kontot komprometterades tidigare samma dag. Angriparen höll transaktionen inom normala grÀnser och förlitade sig pÄ det faktum att den enda tidiga varningen existerade som beteendekunskap fÄngad utanför kassahandlÀggarens beslutskontext.

Felet var inte saknad data, lÄngsam bearbetning eller en dÄlig modell. Det var en agentsilo: kunskap skapades, men delades inte.

Och detta blottlÀgger ett problem som nÀstan ingen pratar om. Vi har byggt arkitekturer dÀr AI-agenter som fattar beslut inte kan komma Ät det som andra AI-agenter redan har upptÀckt.

Problemet som tryckpressen löste

Före tryckpressen var kunskap brÀcklig. NÀr en forskare dog dog mycket av det de hade lÀrt sig med dem. En matematiker i London kunde tillbringa Ärtionden med att upptÀcka principer som en matematiker i Paris sjÀlvstÀndigt skulle ÄterupptÀcka femtio Är senare. Framstegen var verkliga, men de var lokala, lÄngsamma och ÄterstÀlldes upprepade gÄnger.

Tryckpressen gjorde inte individer smartare. Det externaliserade minnet. Kunskap slutade vara bunden till ett enda sinne och började bestÄ bortom skaparens liv. Insikter kunde delas, Äterbesökas och byggas vidare över generationer. Det var det som gjorde att framsteg kunde öka.

Vi riskerar att upprepa misstaget med AI före tryckpressen.

De flesta organisationer anvĂ€nder nu AI-agenter i sina produktionssystem., med mĂ„nga fler som aktivt experimenterar inom omrĂ„den som kundsupport, mjukvaruutveckling, forskning och bedrĂ€geriupptĂ€ckt. Dessa agenter anvĂ€nds vanligtvis som oberoende tjĂ€nster i linje med moderna mikrotjĂ€nstarkitekturer, var och en med sina egna data och operativa grĂ€nser. Även inom samma organisation fĂ„r agenter insikter frĂ„n sin egen produktionserfarenhet men delar sĂ€llan den kunskap de producerar med andra agenter som fattar relaterade beslut.

Som ett resultat förblir operativ insikt fragmenterad. Lokala beslut kan förbÀttras, men erfarenhet ackumuleras inte i hela systemet. Varje genombrott som förblir fÄngat inom en enda agent Àr ett genombrott som inte kan förstÀrkas.

Den hÀr gÄngen Àr den begrÀnsande faktorn inte intelligens eller hastighet. Det Àr minne. Utan ett sÀtt för AI-system att externalisera och dela det de upptÀcker, ÄterstÀlls framstegen oftare Àn de byggs upp.

Hur delat minne egentligen ser ut

Större kontextfönster kan berika individuellt resonemang, men de skapar inte gemensamma, ihÄllande erfarenhet mellan agenter.

Delat minne förÀndrar resultat inte genom att förbÀttra modeller, utan genom att Àndra vad agenter kan se vid beslutstillfÀllet.

I ett silosystem resonerar varje agent korrekt inom sina egna grÀnser. Utcheckningsagenten utvÀrderar transaktionsrisk. Beteendeagenten analyserar klickmönster. Var och en skriver sina slutsatser till det system den Àger, och dessa slutsatser förblir osynliga för andra agenter som arbetar parallellt. Besluten Àr lokalt korrekta, men globalt ofullstÀndiga.

Med ett delat minneslager försvinner den grÀnsen.

NÀr beteendeagenten bearbetar en session hÀrleder den en svag men meningsfull signal: ett navigeringsmönster som Àr kopplat till tidiga försök till kontoövertaganden. IstÀllet för att lagra den insikten endast för offlineanalys skriver den signalen till ett delat minne, lÀnkat till den aktiva sessionen.

NÄgra ögonblick senare, nÀr kassamedarbetaren utvÀrderar köpet, frÄgar den samma minne. Transaktionen ser fortfarande normal ut. Men den ser nu ytterligare sammanhang: en beteendevarning som annars skulle saknas. Ingen av signalerna Àr avgörande pÄ egen hand. Tillsammans passerar de tröskeln för ytterligare verifiering.

Ingenting hos sjÀlva agenterna har förÀndrats. Inga modeller omskolas. Ingen centraliserad kontrollant ingriper. Skillnaden Àr synlighet: en insikt som bildas av en agent blir tillgÀnglig för en annan medan den fortfarande spelar roll.

Avgörande Ă€r att den insikten kvarstĂ„r. NĂ€r resultatet senare blir kĂ€nt – bedrĂ€geri eller legitimt – registreras sambandet mellan signalen och resultatet. Med tiden ackumulerar systemet en empirisk registrering av vilka svaga indikatorer som tenderar att spela roll, och under vilka förhĂ„llanden. Framtida beslut informeras av erfarenheter som strĂ€cker sig bortom en enskild interaktion eller aktör.

Delat minne Àr inte ett datalager och inte en operativ databas. Det Àr ett substrat med lÄg latens för hÀrledd kontext: signaler, tolkningar och associationer som överlever interaktionen som producerade dem och förblir frÄgorbara av andra agenter som fattar relaterade beslut.

SĂ„ hĂ€r sammansĂ€tts erfarenheter – inte inom en specifik modell, utan i hela systemet.

Den arkitektoniska avvÀgningen bakom agentsilos

Agentsilos Àr inte ett implementeringsmisstag. De Àr det förutsÀgbara resultatet av företagsarkitekturer utformade kring en annan typ av konsument.

I Ärtionden har produktionssystem separerat arbetsbelastningar efter funktion. Operativa system optimerades för konsekventa transaktioner med lÄg latens, medan analyssystem optimerades för storskalig aggregering och upptÀckt av historiska mönster (OLTP vs. OLAP). Denna uppdelning Äterspeglade hur insikt konsumerades: analytiska resultat producerades för mÀnniskor, inte maskiner, och förvÀntades dÀrför anlÀnda asynkront och utanför den kritiska vÀgen för beslutsfattande.

AI-agenter Àrver denna arkitektoniska uppdelning, men de passar inte in i den.

Konsekvensen blir inte bara fördröjda insikter, utan strukturella blinda flÀckar. Insikter som produceras i analytiska system upptÀcks avsiktligt efter att beslut i realtid redan har fattats. Signaler som kan förÀndra resultat finns, men kan inte komma fram vid beslutstillfÀllet eftersom de finns i system som inte Àr avsedda att kontinuerligt efterfrÄgas av autonoma beslutsfattare.

Arkitekturen Àr inte trasig. Den Àr inte anpassad till kraven för autonoma system.

Den saknade disciplinen: Kontextteknik

Delat minne introducerar ett problem som de flesta team inte Àr beredda att lösa: att bestÀmma vilken erfarenhet som ska bestÄ.

AI-system genererar enorma mĂ€ngder rĂ„ upplevelse – transaktioner, klick, meddelanden, handlingar, resultat. Att behĂ„lla allt detta Ă€r varken praktiskt eller anvĂ€ndbart. Utan medvetet urval blir delat minne brus. Utmaningen Ă€r inte att samla in mer data, utan att forma upplevelsen till ett sammanhang som andra agenter kan anvĂ€nda.

Detta Àr rollen för kontextteknik.

Kontextteknik Àr disciplinen att avgöra vilka observationer som blir varaktiga signaler, hur dessa signaler representeras och nÀr de ska exponeras för andra agenter. Den ligger mellan rÄa hÀndelser och agenters resonemang och omvandlar övergÄende aktivitet till gemensam, beslutsrelevant förstÄelse.

I praktiken innebÀr detta att mönster, indikatorer och villkorliga associationer lyfts fram, samtidigt som det mesta av den rÄa erfarenheten bleknar. En svag signal eller ett svagt kantfall kanske inte spelar nÄgon roll i sig, men blir vÀrdefullt nÀr det ackumuleras och uppdagas vid rÀtt tillfÀlle.

Kontextteknik avgör om delat minne bara lagrar upplevelse – eller gör det möjligt för den att sammansĂ€ttas.

Vad hÀnder om vi gör det hÀr rÀtt

Detta Ă€r inte en framtidsfrĂ„ga. Det Ă€r ett arkitektoniskt beslut som fattas – ofta implicit – av infrastrukturteam idag.

StandardvÀgen Àr isolering. AI-agenter agerar sjÀlvstÀndigt och bygger endast pÄ sin egen erfarenhet. Var och en fattar snabba, lokalt korrekta beslut, men intelligensen platÄar. Samma marginalfall Äterkommer, svaga signaler ÄterupptÀcks och fel upprepas med större hastighet och volym.

Alternativet Àr ett delat minneslager.

NÀr hÀrlett kontext kvarstÄr och Àr synlig vid beslutstillfÀllet, slutar erfarenheten att avdunsta. Insikter som upptÀckts en gÄng förblir tillgÀngliga. Svaga signaler fÄr mening genom ackumulering. Beslut förbÀttras inte för att modeller förÀndras, utan för att agenter inte lÀngre resonerar isolerat.

Detta krĂ€ver inte större modeller, omskolning i realtid eller centraliserad kontroll. Det krĂ€ver att minnet behandlas som ett förstklassigt arkitektoniskt lager – utformat för Ă„tkomst med lĂ„g latens, persistens och delad synlighet.

Arkitektoniska standardvĂ€rden hĂ„rdnar snabbt. System byggda utan delat minne blir allt svĂ„rare att eftermontera i takt med att agenter sprider sig. Valet Ă€r enkelt: bygg system som samlar erfarenhet – eller system som oĂ€ndligt Ă„terstĂ€lls.

Xiaowei Jiang Àr VD och chefsarkitekt pÄ Tacnode, dÀr han fokuserar pÄ att bygga kontextuell infrastruktur för AI-agenter.