Connect with us

Liderzy opinii

Kryzys pamięci AI: Budujemy cyfrowy wiek ciemny

mm

Miliony agentów AI wkraczają do systemów produkcyjnych. Prawie żaden z nich nie może dzielić się doświadczeniem operacyjnym. To dlaczego ta architektoniczna decyzja ma znaczenie — i co się zmienia, jeśli ją poprawimy.

O godz. 14:06 klient składa zamówienie online na laptop.

Agent obsługujący zamówienie wysyła zapytanie do swojej bazy danych operacyjnej: czysta historia zakupów, kwota w granicach normy, adres dostawy wcześniej używany, urządzenie i lokalizacja spójne z ostatnimi udanymi zamówieniami. Wszystko wygląda normalnie. Agent zatwierdza zamówienie.

W tym samym czasie agent zachowania przetwarza dane z kliknięć w firmowym data lakehouse. Z sesji wyprowadza wzorzec: użytkownik trafił bezpośrednio na głęboki adres URL zamówienia bez przeglądania ani porównywania. Ten sygnał jest słaby sam w sobie, ale jest znanym prekursorem w scenariuszach przejęcia konta, gdy łączony jest z innymi normalnymi zakupami.

Agent zachowania rejestruje tę interpretację jako wiedzę pochodną do późniejszej analizy i szkolenia modelu.

Agent obsługujący zamówienie nie widzi tego. Nie dlatego, że sygnał nie został obliczony, i nie dlatego, że został zignorowany — ale dlatego, że wiedza ta żyje w systemie, do którego agent obsługujący zamówienie nie ma dostępu podczas autoryzacji.

Każdy agent zachowuje się poprawnie, biorąc pod uwagę to, co może zobaczyć. Każdy z nich zapisuje dane do systemu, który posiada. Ale spostrzeżenie wywiedzione przez jednego agenta jest niewidoczne dla drugiego w momencie podejmowania decyzji.

Laptop jest wysłany.

Trzydzieści sześć godzin później zostaje zakwestionowany charge. Śledztwo potwierdza, że konto zostało naruszone wcześniej tego dnia. Atakujący utrzymywał transakcję w granicach normy, polegając na tym, że jedynym wczesnym ostrzeżeniem było zachowanie wiedzy uwięzionej poza kontekstem decyzyjnym agenta obsługującego zamówienie.

Awaria nie była spowodowana brakiem danych, wolną przetwarzaniem lub złym modelem. Była to izolacja agenta: wiedza została sformułowana, ale nie została udostępniona.

I to ujawnia problem, o którym prawie nikt nie mówi. Zbudowaliśmy architektury, w których agenci AI podejmujący decyzje nie mają dostępu do tego, co inni agenci AI już odkryli.

Problem, którego rozwiązał prasę drukarską

Przed prasą drukarską wiedza była krucha. Gdy uczeni umierali, wiele z tego, czego się nauczyli, umierało z nimi. Matematyk w Londynie mógł spędzić dziesięciolecia, aby odkryć zasady, które matematyk w Paryżu niezależnie odkryłby pięćdziesiąt lat później. Postęp był realny, ale był lokalny, powolny i wielokrotnie resetowany.

Prasa drukarska nie uczyniła jednostek mądrzejszymi. Zewnętrzniła pamięć. Wiedza przestała być związana z jednym umysłem i zaczęła trwać poza życiem swojego twórcy. Spostrzeżenia mogły być dzielone, ponownie odwiedzane i rozbudowywane w ciągu pokoleń. To pozwoliło na kumulowanie postępu.

Jesteśmy zagrożeni powtórzeniem błędu sprzed prasy drukarskiej z AI.

Większość organizacji wdraża obecnie agenty AI w systemach produkcyjnych, a wiele z nich aktywnie eksperymentuje w obszarach takich jak obsługa klienta, rozwój oprogramowania, badania i wykrywanie oszustw. Agenci ci są zwykle wdrażani jako niezależne usługi zgodne z nowoczesnymi architekturami mikrousług, każdy z własnymi danymi i granicą operacyjną. Nawet w ramach tej samej organizacji agenci wyprowadzają spostrzeżenia ze swojego doświadczenia produkcyjnego, ale rzadko dzielą się wiedzą, którą produkują, z innymi agentami podejmującymi pokrewne decyzje.

W wyniku czego operacyjna wiedza pozostaje fragmentaryczna. Lokalne decyzje mogą się poprawić, ale doświadczenie nie kumuluje się w całym systemie. Każde przełomowe odkrycie, które pozostaje uwięzione w ramach jednego agenta, jest odkryciem, które nie może się kumulować.

Tym razem czynnikiem ograniczającym nie jest inteligencja ani szybkość. Jest to pamięć. Bez sposobu na zewnętrznienie i udostępnienie tego, co systemy AI odkrywają, postęp resetuje się częściej niż buduje.

Czym jest naprawdę współdzielona pamięć

Większe okna kontekstowe mogą wzbogacić indywidualne rozumowanie, ale nie tworzą współdzielonej, trwałej wiedzy między agentami.

Współdzielona pamięć zmienia wyniki nie poprzez poprawę modeli, ale poprzez zmianę tego, co agenci mogą zobaczyć w momencie podejmowania decyzji.

W systemie izolowanym każdy agent rozumuje poprawnie w ramach własnej granicy. Agent obsługujący zamówienie ocenia ryzyko transakcyjne. Agent zachowania analizuje wzorce kliknięć. Każdy z nich zapisuje swoje wnioski do systemu, który posiada, i te wnioski pozostają niewidoczne dla innych agentów działających równolegle. Decyzje są lokalnie poprawne, ale globalnie niepełne.

Z warstwą pamięci współdzielonej ta granica znika.

Gdy agent zachowania przetwarza sesję, wyprowadza słaby, ale znaczący sygnał: wzorzec nawigacji związany z wczesnymi próbami przejęcia konta. Zamiast zapisywać to spostrzeżenie tylko do analizy offline, zapisuje sygnał do pamięci współdzielonej, powiązanego z aktywną sesją.

Chwilę później, gdy agent obsługujący zamówienie ocenia zakup, wysyła zapytanie do tej samej pamięci. Transakcja nadal wygląda normalnie. Ale teraz widzi dodatkowy kontekst: ostrzeżenie behawioralne, które w przeciwnym razie byłoby nieobecne. Żaden sygnał nie jest decydujący sam w sobie. Razem przekraczają próg dalszej weryfikacji.

Nic w agentach samych w sobie nie uległo zmianie. Żadne modele nie zostały przeszkolone. Żaden centralny kontroler nie interweniował. Różnica polega na widoczności: spostrzeżenie sformułowane przez jednego agenta staje się dostępne dla innego, gdy jeszcze ma to znaczenie.

Co najważniejsze, to spostrzeżenie trwa. Gdy wynik jest później znany — oszustwo lub legit — powiązanie między sygnałem a wynikiem jest zapisane. Z biegiem czasu system kumuluje empiryczny zapis, który z których słabych wskaźników ma znaczenie i w jakich warunkach. Przyszłe decyzje są informowane przez doświadczenie, które wykracza poza pojedynczą interakcję lub agenta.

Współdzielona pamięć nie jest magazynem danych ani bazą danych operacyjnej. Jest to warstwa niskiej latencji dla pochodzącego kontekstu: sygnałów, interpretacji i powiązań, które przetrwają interakcję, która je wytworzyła, i pozostaną dostępne dla innych agentów podejmujących pokrewne decyzje.

To jest sposób, w jaki doświadczenie kumuluje się — nie wewnątrz jednego modelu, ale w całym systemie.

Architektoniczny kompromis za agentami izolowanymi

Agenci izolowani nie są błędem implementacyjnym. Są one przewidywalnym wynikiem architektur przedsiębiorstw zaprojektowanych z myślą o innym rodzaju konsumentach.

Przez dziesięciolecia systemy produkcyjne dzieliły obciążenia według funkcji. Systemy operacyjne były zoptymalizowane pod kątem niskiej latencji i spójnych transakcji, podczas gdy systemy analityczne były zoptymalizowane pod kątem dużych agregacji i historycznego odkrywania wzorców (OLTP vs. OLAP). To rozdzielenie odzwierciedlało, w jaki sposób wiedza była konsumowana: wyniki analityczne były produkowane dla ludzi, a nie maszyn, i dlatego oczekiwano, że będą przychodzić asynchronicznie i poza krytyczną ścieżką podejmowania decyzji.

Agenci AI dziedziczą to architektoniczne rozdzielenie, ale nie pasują do niego.

Konsekwencją nie jest po prostu opóźniona wiedza, ale strukturalne punkty ślepe. Spostrzeżenia wytworzone w systemach analitycznych są, zgodnie z projektem, odkrywane po podjęciu decyzji w czasie rzeczywistym. Sygnały, które mogą zmienić wyniki, istnieją, ale nie mogą być ujawnione w momencie podejmowania decyzji, ponieważ znajdują się w systemach, które nie są przeznaczone do ciągłego zapytywania przez autonomicznych decydentów.

Architektura nie jest złamana. Jest niezgodna z wymaganiami autonomicznych systemów.

Brakująca dyscyplina: inżynieria kontekstu

Współdzielona pamięć wprowadza problem, z którym większość zespołów nie jest przygotowana do rozwiązania: decyzja, jakie doświadczenie powinno trwać.

Systemy AI generują ogromne ilości surowego doświadczenia — transakcje, kliknięcia, wiadomości, akcje, wyniki. Utrwalenie wszystkiego nie jest ani praktyczne, ani użyteczne. Bez celowego wyboru współdzielona pamięć staje się szumem. Wyzwaniem nie jest zbieranie więcej danych, ale kształtowanie doświadczenia w kontekście, który inne agenty mogą wykorzystać.

To jest rola inżynierii kontekstu.

Inżynieria kontekstu jest dyscypliną decyzyjną, która określa, które obserwacje stają się trwałymi sygnałami, jak te sygnały są reprezentowane i kiedy powinny być ujawnione innym agentom. Znajduje się między surowymi zdarzeniami a rozumowaniem agenta, transformując przejściową aktywność w współdzieloną, decyzyjnie istotną wiedzę.

W praktyce oznacza to podniesienie wzorców, wskaźników i warunkowych powiązań, podczas gdy większość surowego doświadczenia zanika. Słaby sygnał lub przypadkowy przypadek może nie mieć znaczenia w izolacji, ale staje się cenny, gdy kumuluje się i jest ujawniany w odpowiedniej chwili.

Inżynieria kontekstu określa, czy współdzielona pamięć po prostu przechowuje doświadczenie, czy umożliwia mu kumulowanie.

Co się stanie, jeśli to rozwiążemy

To nie jest problem przyszłości. Jest to architektoniczna decyzja podejmowana — często niejawnie — przez zespoły infrastruktury dzisiaj.

Domyślna ścieżka to izolacja. Agenci AI działają niezależnie, opierając się tylko na swoim doświadczeniu. Każdy z nich podejmuje szybkie, lokalnie poprawne decyzje, ale inteligencja się wypłaszcza. Te same przypadki krawędzi powtarzają się, słabe sygnały są ponownie odkrywane, a awarie powtarzają się w większej szybkości i objętości.

Alternatywą jest warstwa pamięci współdzielonej.

Gdy pochodzący kontekst trwa i jest widoczny w momencie podejmowania decyzji, doświadczenie przestaje parować. Spostrzeżenia odkryte raz pozostają dostępne. Słabe sygnały zyskują znaczenie poprzez kumulację. Decyzje poprawiają się nie dlatego, że modele się zmieniają, ale dlatego, że agenci nie rozumują już w izolacji.

To nie wymaga większych modeli, szkolenia w czasie rzeczywistym ani scentralizowanego kontroli. Wymaga traktowania pamięci jako pierwszorzędnej warstwy architektonicznej — zaprojektowanej z myślą o niskiej latencji, trwałości i współdzielonej widoczności.

Domyślne architektoniczne szybko twardnieją. Systemy zbudowane bez współdzielonej pamięci stają się coraz trudniejsze do retrofitingu, gdy agenci się rozprzestrzeniają. Wybór jest prosty: buduj systemy, które kumulują doświadczenie — lub systemy, które kończą się resetem.

Xiaowei Jiang jest CEO i Chief Architect w Tacnode, gdzie koncentruje się na budowaniu infrastruktury kontekstowej dla agentów AI.