Kontakt z nami

Liderzy myśli

Kryzys pamięci sztucznej inteligencji: budujemy cyfrową erę ciemności

mm

Miliony agentów AI wchodzą do systemów produkcyjnych. Prawie żaden z nich nie może dzielić się doświadczeniem operacyjnym. Dlatego ten wybór architektury ma znaczenie – i co się zmieni, jeśli dokonamy go prawidłowo.

O godzinie 2:06 klient składa zamówienie online na laptopa.

Agent kasowy sprawdza swoją bazę danych: czystą historię zakupów, kwotę w normie, poprzednio użyty adres wysyłki, urządzenie i lokalizację zgodne z ostatnimi pomyślnie zrealizowanymi zamówieniami. Wszystko wygląda normalnie. Agent zatwierdza zamówienie.

Jednocześnie agent behawioralny przetwarza dane dotyczące kliknięć w firmowym magazynie danych (data lakehouse). Na podstawie sesji wyprowadza wzorzec: użytkownik trafił bezpośrednio na adres URL głębokiego procesu płatności, bez przeglądania ani porównywania ofert. Ten sygnał sam w sobie jest słaby, ale w połączeniu z normalnymi zakupami jest znanym prekursorem scenariuszy przejęcia konta.

Agent behawioralny zapisuje tę interpretację jako wiedzę pochodną do późniejszej analizy i szkolenia modelu.

Agent kasowy nigdy tego nie widzi. Nie dlatego, że sygnał nie został obliczony ani dlatego, że został zignorowany – ale dlatego, że wiedza ta jest zawarta w systemie, z którym agent kasowy nie zapoznaje się podczas autoryzacji.

Każdy agent zachowuje się poprawnie, biorąc pod uwagę to, co widzi. Każdy zapisuje dane do systemu, którego jest właścicielem. Jednak wnioski uzyskane przez jednego agenta są niewidoczne dla drugiego w momencie podejmowania decyzji.

Laptop został wysłany.

Trzydzieści sześć godzin później obciążenie zostało zakwestionowane. Śledztwo potwierdza, że ​​konto zostało przejęte wcześniej tego dnia. Atakujący utrzymał transakcję w normalnych granicach, opierając się na fakcie, że jedynym wczesnym ostrzeżeniem była wiedza behawioralna ukryta poza kontekstem decyzyjnym kasjera.

Przyczyną awarii nie były brakujące dane, powolne przetwarzanie ani wadliwy model. Przyczyną była silosowość agentów: wiedza była gromadzona, ale nie udostępniana.

To ujawnia problem, o którym prawie nikt nie mówi. Stworzyliśmy architektury, w których agenci AI podejmujący decyzje nie mają dostępu do tego, co odkryli już inni agenci AI.

Problem rozwiązany przez prasę drukarską

Przed pojawieniem się druku wiedza była krucha. Wraz ze śmiercią uczonego ginęła wraz z nim znaczna część jego wiedzy. Matematyk w Londynie mógł spędzić dekady na odkrywaniu zasad, które matematyk w Paryżu odkryłby na nowo pięćdziesiąt lat później. Postęp był realny, ale lokalny, powolny i wielokrotnie cofany.

Prasa drukarska Nie uczyniło jednostek mądrzejszymi. Uzewnętrzniło pamięć. Wiedza przestała być ograniczona do jednego umysłu i zaczęła trwać dłużej niż życie jej twórcy. Spostrzeżeniami można było się dzielić, powracać do nich i rozwijać je przez pokolenia. To właśnie umożliwiło kumulację postępu.

Grozi nam powtórzenie błędu z czasów przed drukiem w przypadku sztucznej inteligencji.

Większość organizacji wdraża obecnie agentów AI w systemach produkcyjnych, a wiele innych aktywnie eksperymentuje w takich obszarach jak obsługa klienta, rozwój oprogramowania, badania i wykrywanie oszustw. Agenci ci są zazwyczaj wdrażani jako niezależne usługi dostosowane do nowoczesnych architektury mikrousług, z których każdy ma własne dane i granice operacyjne. Nawet w obrębie tej samej organizacji agenci czerpią wiedzę z własnego doświadczenia produkcyjnego, ale rzadko dzielą się nią z innymi agentami podejmującymi powiązane decyzje.

W rezultacie wgląd operacyjny pozostaje fragmentaryczny. Lokalne decyzje mogą się poprawić, ale doświadczenie nie kumuluje się w całym systemie. Każdy przełom, który pozostaje uwięziony w jednym agencie, to przełom, który nie może się kumulować.

Tym razem czynnikiem ograniczającym nie jest inteligencja ani szybkość. To pamięć. Bez możliwości, by systemy sztucznej inteligencji mogły uzewnętrzniać i udostępniać swoje odkrycia, postęp częściej się resetuje, niż narasta.

Jak naprawdę wygląda pamięć współdzielona

Większe okna kontekstowe mogą wzbogacić indywidualne rozumowanie, ale nie tworzą wspólnych, trwałe doświadczenie wśród agentów.

Pamięć współdzielona zmienia wyniki nie poprzez ulepszanie modeli, lecz poprzez zmianę tego, co agenci mogą zobaczyć w momencie podejmowania decyzji.

W systemie silosowym każdy agent rozumuje poprawnie w ramach własnych granic. Agent płatności ocenia ryzyko transakcyjne. Agent behawioralny analizuje wzorce kliknięć. Każdy z nich zapisuje swoje wnioski w systemie, którego jest właścicielem, a wnioski te pozostają niewidoczne dla innych agentów działających równolegle. Decyzje są poprawne lokalnie, ale globalnie niekompletne.

Dzięki współdzielonej warstwie pamięci granica ta znika.

Podczas przetwarzania sesji agent behawioralny generuje słaby, ale znaczący sygnał: wzorzec nawigacyjny powiązany z wczesnymi próbami przejęcia konta. Zamiast przechowywać te informacje tylko do analizy offline, zapisuje sygnał w pamięci współdzielonej, powiązanej z aktywną sesją.

Chwilę później, gdy kasjer ocenia zakup, odpytuje tę samą pamięć. Transakcja nadal wygląda normalnie. Ale teraz widzi dodatkowy kontekst: ostrzeżenie behawioralne, którego w innym przypadku by nie było. Żaden z sygnałów nie jest sam w sobie decydujący. Razem przekraczają próg dalszej weryfikacji.

Nic w samych agentach się nie zmieniło. Żadne modele nie są przeszkolone. Żaden scentralizowany kontroler nie interweniuje. Różnica polega na przejrzystości: spostrzeżenia uzyskane przez jednego agenta stają się dostępne dla drugiego, gdy jeszcze mają znaczenie.

Co najważniejsze, ta wiedza jest trwała. Gdy wynik jest później znany – czy jest to oszustwo, czy legalne – związek między sygnałem a rezultatem zostaje zarejestrowany. Z czasem system gromadzi empiryczny zapis tego, które słabe wskaźniki mają znaczenie i w jakich warunkach. Przyszłe decyzje są podejmowane na podstawie doświadczenia, które wykracza poza pojedynczą interakcję lub działanie agenta.

Pamięć współdzielona nie jest magazynem danych ani operacyjną bazą danych. Jest to podłoże o niskim opóźnieniu dla kontekstu pochodnego: sygnałów, interpretacji i skojarzeń, które przetrwają interakcję, która je wygenerowała, i pozostają możliwe do odpytania przez innych agentów podejmujących powiązane decyzje.

W ten sposób doświadczenie się kumuluje — nie w obrębie jednego modelu, lecz w całym systemie.

Kompromis architektoniczny stojący za silosami agentów

Silosy agentów nie są błędem implementacji. Są przewidywalnym rezultatem architektur korporacyjnych zaprojektowanych z myślą o innym typie konsumenta.

Przez dekady systemy produkcyjne oddzielały obciążenia według funkcji. Systemy operacyjne były optymalizowane pod kątem niskich opóźnień i spójnych transakcji, podczas gdy systemy analityczne były optymalizowane pod kątem agregacji na dużą skalę i wykrywania wzorców historycznych (OLTP kontra OLAP). Ten podział odzwierciedlał sposób, w jaki przyswajano wiedzę: wyniki analiz były przygotowywane dla ludzi, a nie maszyn, i dlatego oczekiwano, że będą docierać asynchronicznie i poza krytyczną ścieżką podejmowania decyzji.

Agenci AI dziedziczą ten podział architektoniczny, ale nie pasują do niego.

Konsekwencją tego jest nie tylko opóźniony wgląd, ale także strukturalne martwe punkty. Wnioski generowane przez systemy analityczne są, z założenia, odkrywane po podjęciu decyzji w czasie rzeczywistym. Sygnały, które mogłyby zmienić wyniki, istnieją, ale nie mogą zostać ujawnione w momencie podejmowania decyzji, ponieważ znajdują się w systemach, które nie są przeznaczone do ciągłego analizowania przez autonomicznych decydentów.

Architektura nie jest zepsuta. Jest niedopasowana do wymagań systemów autonomicznych.

Brakująca dyscyplina: inżynieria kontekstu

Pamięć współdzielona stwarza problem, którego większość zespołów nie jest gotowa rozwiązać: konieczność zdecydowania, jakie doświadczenie powinno zostać zachowane.

Systemy AI generują ogromne ilości surowych doświadczeń – transakcji, kliknięć, wiadomości, działań i rezultatów. Utrwalanie ich wszystkich nie jest ani praktyczne, ani użyteczne. Bez celowej selekcji, pamięć współdzielona staje się szumem. Wyzwaniem nie jest gromadzenie większej ilości danych, ale kształtowanie doświadczenia w kontekście, z którego mogą korzystać inni agenci.

To jest rola inżynieria kontekstowa.

Inżynieria kontekstu to dyscyplina decydująca o tym, które obserwacje stają się trwałymi sygnałami, jak te sygnały są reprezentowane i kiedy powinny zostać ujawnione innym agentom. Znajduje się ona pomiędzy surowymi zdarzeniami a rozumowaniem agenta, przekształcając przejściową aktywność w zrozumienie współdzielone i istotne dla podejmowania decyzji.

W praktyce oznacza to podniesienie rangi wzorców, wskaźników i skojarzeń warunkowych, przy jednoczesnym zaniku większości surowych doświadczeń. Słaby sygnał lub przypadek skrajny może nie mieć znaczenia w oderwaniu od reszty, ale staje się cenny, gdy zostanie zgromadzony i ujawniony we właściwym momencie.

Inżynieria kontekstu decyduje, czy pamięć współdzielona jedynie przechowuje doświadczenia, czy też umożliwia ich łączenie.

Co się stanie, jeśli zrobimy to dobrze?

Nie jest to kwestia przyszłości. To decyzja architektoniczna, podejmowana – często w sposób dorozumiany – przez zespoły infrastrukturalne już dziś.

Domyślną ścieżką jest izolacja. Agenci AI działają niezależnie, opierając się wyłącznie na własnym doświadczeniu. Każdy z nich podejmuje szybkie, trafne lokalnie decyzje, ale inteligencja osiąga plateau. Te same skrajne przypadki powtarzają się, słabe sygnały są ponownie wykrywane, a awarie powtarzają się z większą szybkością i nasileniem.

Alternatywą jest warstwa pamięci współdzielonej.

Gdy pochodny kontekst jest trwały i widoczny w momencie podejmowania decyzji, doświadczenie przestaje zanikać. Raz odkryte spostrzeżenia pozostają dostępne. Słabe sygnały nabierają znaczenia poprzez akumulację. Decyzje poprawiają się nie dlatego, że zmieniają się modele, ale dlatego, że agenci nie rozumują już w izolacji.

Nie wymaga to większych modeli, ponownego trenowania w czasie rzeczywistym ani scentralizowanego sterowania. Wymaga traktowania pamięci jako pierwszorzędnej warstwy architektonicznej – zaprojektowanej z myślą o dostępie z niskim opóźnieniem, trwałości i współdzielonej widoczności.

Domyślne ustawienia architektury szybko się utrwalają. Systemy zbudowane bez pamięci współdzielonej stają się coraz trudniejsze do modernizacji wraz z mnożeniem się agentów. Wybór jest prosty: budować systemy, które kumulują doświadczenie, czy systemy, które nieustannie się resetują.

Xiaowei Jiang jest dyrektorem generalnym i głównym architektem w Węzeł taktyczny, gdzie skupia się na budowaniu infrastruktury kontekstowej dla agentów AI.