Myslitelé
Krize paměti AI: Budujeme digitální temný věk

Miliony agentů AI vstupují do produkčních systémů. Téměř žádný z nich nemůže sdílet provozní zkušenosti. To je důvod, proč je tato architektonická volba důležitá – a co se změní, když to uděláme správně.
V 14:06 hodin zákazník umístí online objednávku na laptop.
Checkout agent dotazuje svou provozní databázi: čistá historie nákupů, částka je v normálním rozmezí, adresa pro doručování byla dříve použita, zařízení a umístění jsou konzistentní s nedávnými úspěšnými objednávkami. Vše vypadá normálně. Agent schvaluje objednávku.
Ve stejnou dobu behavior agent zpracovává data kliknutí v datové lakehouse společnosti. Z relace odvozuje vzorec: uživatel přišel přímo na hlubokou adresu pro checkout bez prohlížení nebo srovnávacího chování. Tento signál je sám o sobě slabý, ale je známým předchůdcem v scénářích převzetí účtu, když je kombinován s jinak normálními nákupy.
Behavior agent zaznamenává tuto interpretaci jako odvozené znalosti pro pozdější analýzu a školení modelu.
Checkout agent to nevidí. Ne proto, že signál nebyl vypočten, a ne proto, že byl ignorován – ale protože znalosti žijí uvnitř systému, který checkout agent během autorizace nekontaktuje.
Každý agent se chová správně vzhledem k tomu, co může vidět. Každý zapisuje do systému, který vlastní. Ale poznatky odvozené jedním agentem jsou pro jiného agenta neviditelné v době rozhodování.
Laptop je odeslán.
Šestatřicet hodin později je poplatky zpochybněny. Vyšetřování potvrzuje, že účet byl dříve toho dne ohrožen. Útočník udržel transakci v normálních mezích, spoléhaje se na to, že jediné rané varování existovalo jako behaviorální znalosti uvězněné mimo kontext rozhodnutí checkout agenta.
Selhání nebylo způsobeno chybějícími daty, pomalým zpracováním nebo špatným modelem. Bylo to agentní silo: znalosti byly vytvořeny, ale nebyly sdíleny.
A to odhaluje problém, o kterém téměř nikdo nemluví. Postavili jsme architektury, ve kterých agenti AI, kteří činí rozhodnutí, nemohou získat přístup k tomu, co již objevili ostatní agenti AI.
Problém, který vyřešil tiskový stroj
Před tiskovým strojem byly znalosti křehké. Když učenec zemřel, mnoho toho, co se naučil, zemřelo s ním. Matematik v Londýně mohl strávit desetiletí objevováním principů, které matematik v Paříži nezávisle znovuobjevil o padesát let později. Pokrok byl skutečný, ale byl lokální, pomalý a opakovaně resetován.
Tiskový stroj neudělal jednotlivce chytřejšími. Externalizoval paměť. Znalosti přestaly být vázané na jeden mysl a začaly přetrvávat za život svého tvůrce. Poznatky mohly být sdíleny, revidovány a rozvíjeny napříč generacemi. To je to, co umožnilo pokroku kumulovat.
Rizikujeme, že opakujeme chybu z předtiskové éry s AI.
Většina organizací nyní nasazuje agenty AI do produkčních systémů, s mnoha dalšími aktivně experimentujícími v oblastech, jako je zákaznická podpora, vývoj softwaru, výzkum a detekce podvodů. Tyto agenty jsou obvykle nasazeny jako nezávislé služby vyrovnané s moderními mikroslužbami, každý se svými vlastními daty a provozními hranicemi. I uvnitř stejné organizace agenty odvozují poznatky ze své vlastní provozní zkušenosti, ale zřídka sdílejí znalosti, které produkují, s jinými agenty, kteří činí související rozhodnutí.
V důsledku toho provozní poznatky zůstávají fragmentované. Lokální rozhodnutí se mohou zlepšit, ale zkušenosti se neakumulují napříč systémem. Každé průlomové objevy, které zůstávají uvězněny uvnitř jednoho agenta, jsou průlomovými objevy, které nemohou kumulovat.
Tentokrát je omezujícím faktorem není inteligence nebo rychlost. Je to paměť. Bez způsobu, jakým systémy AI mohou externalizovat a sdílet to, co objeví, pokrok resetuje častěji, než buduje.
Co vypadá sdílená paměť
Širší kontextové okna mohou obohatit individuální uvažování, ale nevytvářejí sdílené, trvalé zkušenosti napříč agenty.
Sdílená paměť mění výsledky ne tím, že zlepšuje modely, ale tím, že mění to, co agenty mohou vidět v době rozhodování.
V systému s ilo každý agent uvažuje správně uvnitř své vlastní hranice. Checkout agent vyhodnocuje transakční riziko. Behavior agent analyzuje vzorce kliknutí. Každý zapisuje své závěry do systému, který vlastní, a tyto závěry zůstávají neviditelné pro ostatní agenty, které operují paralelně. Rozhodnutí jsou lokálně správná, ale globálně neúplná.
Se sdílenou paměťovou vrstvou tato hranice zmizí.
Když behavior agent zpracovává relaci, odvozuje slabý, ale významný signál: navigační vzorec spojený s ranými pokusy o převzetí účtu. Místo toho, aby tento poznatek ukládal pouze pro offline analýzu, zapisuje signál do sdílené paměti, propojený s aktivní relací.
O několik okamžiků později, když checkout agent vyhodnocuje nákup, dotazuje tuto paměť. Transakce stále vypadá normálně. Ale nyní vidí další kontext: behaviorální varování, které by jinak chybělo. Žádný signál není sám o sobě rozhodující. Společně překračují práh pro další ověření.
Nic na agentech samotných se nezměnilo. Žádné modely nejsou přeškoleny. Žádný centralizovaný kontrolér nezasahuje. Rozdíl je ve viditelnosti: poznatek vytvořený jedním agentem se stává dostupným jinému, zatímco to ještě záleží.
Zásadně, tento poznatek přetrvává. Když je výsledek později znám – podvod nebo legální – asociace mezi signálem a výsledkem je zaznamenána. Časem systém akumuluje empirický záznam o tom, které slabé indikátory se obvykle týkají, a za jakých podmínek. Budoucí rozhodnutí jsou informována zkušenostmi, které sahají za hranice jediné interakce nebo agenta.
Sdílená paměť není datový sklad a není provozní databáze. Je to nízko-latentní substrát pro odvozený kontext: signály, interpretace a asociace, které přežijí interakci, která je produkovala, a zůstávají dotazovatelné jinými agenty, kteří činí související rozhodnutí.
To je to, jak zkušenosti kumulují – ne uvnitř žádného modelu, ale napříč systémem jako celkem.
Architektonické kompromisy za agentními silo
Agentní silo nejsou implementační chyba. Jsou předvídatelným výsledkem podnikových architektur navržených pro jiného typu spotřebitele.
Po desetiletích produkční systémy oddělovaly pracovní zátěže podle funkce. Provozní systémy byly optimalizovány pro nízko-latentní, konzistentní transakce, zatímco analytické systémy byly optimalizovány pro velkoškálovou agregaci a historické objevy vzorců (OLTP vs. OLAP). Tento rozdílný přístup odrážel, jak jsou poznatky konzumovány: analytické výsledky byly produkovány pro lidi, ne pro stroje, a byly tedy očekávány, že budou doručeny asynchronně a mimo kritickou cestu rozhodování.
Agenty AI dědí tento architektonický rozpor, ale nehodí se do něj.
Následkem není prostě zpožděné poznatky, ale strukturální slepá místa. Poznatky produkované v analytických systémech jsou, podle designu, objeveny poté, co rozhodnutí v reálném čase již byla učiněna. Signály, které by mohly změnit výsledky, existují, ale nemohou být zobrazeny v době rozhodování, protože sídlí v systémech, které nejsou určeny k tomu, aby byly kontinuálně dotazovány autonomními rozhodovacími systémy.
Architektura není rozbitá. Je nesouladná s požadavky autonomních systémů.
Chybějící disciplína: Kontextové inženýrství
Sdílená paměť zavádí problém, na který většina týmů není připravena: rozhodnout, jakou zkušenost by mělo přetrvat.
Systémy AI generují obrovské množství surových zkušeností – transakcí, kliknutí, zpráv, akcí, výsledků. Ukládání všech těchto zkušeností není praktické ani užitečné. Bez úmyslného výběru se sdílená paměť stává šumem. Výzvou není shromažďovat více dat, ale tvarovat zkušenosti do kontextu, který mohou ostatní agenty použít.
To je role kontextového inženýrství.
Kontextové inženýrství je disciplína, která rozhoduje, které pozorování se stanou trvalými signály, jak tyto signály jsou reprezentovány, a kdy by měly být vystaveny jiným agentům. Sídlí mezi surovými událostmi a agentním uvažováním, transformuje přechodnou aktivitu na sdílené, rozhodovací relevantní porozumění.
V praxi to znamená zvyšování vzorců, indikátorů a podmíněných asociací, zatímco většina surových zkušeností je umožněna vyblednout. Slabý signál nebo okrajový případ nemusí mít význam v izolaci, ale stává se cenným, když je akumulován a zobrazen ve správný okamžik.
Kontextové inženýrství určuje, zda sdílená paměť pouze ukládá zkušenosti – nebo umožňuje jim kumulovat.
Co se stane, když to uděláme správně
To není budoucí obava. Je to architektonické rozhodnutí, které je učiněno – často implicitně – infrastrukturálními týmy dnes.
Výchozí cesta je izolace. Agenty AI jednají nezávisle, čerpající pouze ze své vlastní zkušenosti. Každý činí rychlá, lokálně správná rozhodnutí, ale inteligence stagnuje. Stejné okrajové případy se opakují, slabé signály jsou znovuobjeveny a selhání se opakují ve větší rychlosti a objemu.
Alternativa je sdílená paměťová vrstva.
Když odvozený kontext přetrvává a je viditelný v době rozhodování, zkušenosti přestávají mizet. Poznatky objevené jednou zůstávají dostupné. Slabé signály získávají význam prostřednictvím akumulace. Rozhodnutí se zlepšují ne proto, že se modely mění, ale protože agenty již neuvádějí v izolaci.
To nevyžaduje větší modely, reálné školení nebo centralizovanou kontrolu. Vyžaduje to, aby se paměť považovala za první architektonickou vrstvu – navrženou pro nízko-latentní přístup, přetrvání a sdílenou viditelnost.
Architektonické výchozí hodnoty se rychle utvrzují. Systémy postavené bez sdílené paměti se stávají stále obtížnějšími na retrofitování, jak se agenty množí. Volba je jednoduchá: postavit systémy, které akumulují zkušenosti – nebo systémy, které se neustále resetují.












