Connect with us

Umělá inteligence

Řízené zapomínání: Další velký výzvou v paměti AI

mm

Po mnoho let se oblast AI zaměřovala na jeden cíl: udělat systémy, které si lépe pamatují. Školicíme modely na obrovských datech a postupně zlepšujeme jejich schopnost uchovávat a vybavovat informace. Ale teď si uvědomujeme jednu nepříjemnou realitu. Stejné systémy, které nic nezapomínají, jsou teď uvězněny ve své vlastní paměti. Co dříve vypadalo jako síla, se stalo vážnou slabinou.

Lidé zapomínají přirozeně. Pouštíme informace, adaptujeme se a jdeme dál. Systémy AI fungují jinak. Oni si pamatují všechno, pokud je neučíme zapomínat. To vytváří skutečné problémy. AI má problémy s porušováním soukromí, zastaralými informacemi, zabudovanými předsudky a systémy, které se rozpadají, když se učí nové úkoly. Výzvou, která nás čeká, není udělat AI, aby si pamatovalo více. Musíme naučit AI, jak zapomínat moudře.

Dvě tváře zapomínání

Zapomínání v AI se objevuje ve dvou různých formách, každá se svou vlastní sadou problémů.

První je katastrofické zapomínání. To se stane, když neuronová síť ztratí dříve naučené znalosti po školení na nových úkolech. Například model školený k rozpoznávání koček a psů může zapomenout na tuto schopnost po naučení identifikovat ptáky.

Druhá forma je řízené zapomínání. To je úmyslné. Zahrnuje úmyslné odstranění určitých informací z naučených modelů. Zákony o ochraně soukromí, jako je GDPR, dávají lidem „právo být zapomenuti“, které vyžaduje, aby společnosti vymazaly data na žádost. To není o opravě rozbitých systémů. Je to o úmyslném odstranění dat, která by nikdy neměla být uložena nebo musí zmizet na žádost.

Tyto dva problémy táhnou v opačných směrech. Jeden vyžaduje, abychom přestali zapomínat. Druhý vyžaduje, abychom ermögňovali zapomínání. Řízení obou současně je jednou z nejtěžších výzev AI.

Když paměť se stává zátěží

Výzkum AI se dlouho zaměřoval na zlepšování paměti. Modely se staly většími, datové sady většími a kontextové okna delšími. Systémy, jako je GPT-4o, mohou nyní zpracovat 128 000 tokenů kontextu a Claude může dosáhnout 200 000. Tyto pokroky zlepšily výkon, ale také přinesly nové problémy.

Když model si pamatuje příliš mnoho, může vyvolat zastaralé nebo irelevantní informace. To plýtvá výpočetními zdroji a může zmást uživatele. Například si vezměme chatbota zákaznické podpory školeného na znalostní bázi vaší společnosti. Aktualizujete zásadu, ale po několika interakcích se bot vrátí k starým informacím. To se stane, protože AI nemůže správně priorizovat paměť. AI nemůže rozlišit, co je aktuální a co je staré.

Zákony o ochraně soukromí situaci zhoršují. Podle GDPR, když uživatel žádá o vymazání svých dat, musí je společnost odstranit. Ale vymazání dat z modelu AI není jako vymazání souboru z počítače. Jakmile se osobní data stanou součástí parametrů modelu, šíří se po milionech spojení uvnitř sítě. Přesvědčování celého systému k odstranění těchto dat je nákladné a často nemožné. Výzkum ukazuje, že větší modely jsou více zranitelné vůči kybernetickým útokům. Čím větší je model, tím více si pamatuje a může reprodukovat soukromá data, když je požádán o pečlivě vytvořené podněty. Útočníci mohou extrahovat informace, ke kterým by se jinak neměli dostat.

Co dělá zapomínání obtížným

Modely AI neukládají trénovací příklady jako soubory ve složce. Kompresují a mísí trénovací informace do svých váh a aktivací. Odstranění jednoho kusu dat bez narušení všeho ostatního je extrémně obtížné. Kromě toho nemůžeme snadno sledovat, jak konkrétní trénovací data ovlivňují vnitřní váhy modelu. Jakmile model naučí z dat, toto znalosti se šíří jeho parametry způsoby, které jsou těžké stopovat.

Přesvědčování modelů od začátku po každé žádosti o vymazání není proveditelné. Když někdo žádá o vymazání svých osobních dat podle GDPR, musíte je odstranit ze systému AI. Ale přesvědčování modelu od začátku každým разом je příliš nákladné a pomalé ve většině produkčních prostředích. Pro velké jazykové modely školené na miliardách datových bodů by tento přístup byl prohibitivně nákladný a časově náročný.

Verifikace zapomínání představuje další výzvu. Jak můžeme prokázat, že data byla skutečně zapomenuta? Společnosti potřebují externí audity, aby prokázaly, že data byla vymazána. Bez spolehlivých metod verifikace nemohou podniky prokázat soulad a uživatelé nemohou důvěřovat, že jejich data jsou skutečně pryč.

Tyto výzvy vedly k vytvoření nového oboru nazvaného machine unlearning. Zaměřuje se na techniky pro odstranění vlivu konkrétních dat z naučených modelů. Ale tyto metody jsou stále v rané fázi. Přesné zapomínání často vyžaduje přesvědčování modelu, zatímco aproximativní metody mohou zanechat stopy vymazaných informací.

Stabilita-Plasticita Dilema

Základní výzvou, kterou musíme řešit, je zabránit katastrofickému zapomínání a umožnit řízené zapomínání. To nás vede k jedné z hlavních výzev AI: stabilita–plasticita dilema. Modely musí být dostatečně flexibilní, aby se naučily nové informace, ale dostatečně stabilní, aby uchovávaly staré znalosti. Pokud tlačíme model příliš daleko směrem ke stabilitě, nemůže se adaptovat. Na druhé straně, pokud tlačíme model příliš daleko směrem k flexibilitě, může zapomenout vše, co se dříve naučil.

Lidská paměť poskytuje užitečné nápady, jak řešit toto dilema. Neurověda říká, že zapomínání není chyba. Je to aktivní proces. Mozek zapomíná úmyslně, aby se učilo lépe. Odstraňuje nebo potlačuje staré nebo nízkohodnotné informace, aby nové vzpomínky zůstaly přístupné. Když lidé učí nový jazyk, nezruší starý. Ale pokud přestanou jej používat, vzpomínka se stává obtížnější. Informace jsou stále tam, jen deprioritizované. Mozek používá selektivní potlačení, ne vymazání.

Výzkumníci AI začínají přijímat podobné nápady. Generativní přehrávání techniky napodobují, jak mozek ukládá vzpomínky. Vytvoří abstraktní reprezentace předchozích znalostí místo ukládání surových dat. To snižuje katastrofické zapomínání a udržuje paměť kompaktní. Další slibný nápad je inteligentní úpadek. Uložené vzpomínky jsou ohodnoceny podle toho, jak jsou nedávné, relevantní a užitečné. Méně důležité vzpomínky postupně ztrácejí prioritu a jsou vyvolávány méně často. To udržuje informace dostupné, ale skryté, pokud nejsou potřeba. Systémy AI mohou spravovat velké znalostní báze bez odhazování potenciálně cenných informací.

Cílem není vymazat, ale vyvážit vzpomínání a zapomínání inteligentně.

Jak vypadá budoucnost

Průmysl se pohybuje ve třech hlavních směrech.

První jsou hybridní architektury paměti. Tyto systémy kombinují epizodickou paměť (konkrétní zkušenosti) se sémantickou pamětí (obecné znalosti). Používají mechanismy rankingu a prořezávání, aby udržely důležité informace a vybledly méně relevantní. Vektorové databáze, jako Pinecone a Weaviate, pomáhají spravovat a vyvolávat takovou paměť efektivně.

Druhé jsou technologie zvyšující soukromí. Techniky, jako je federated learning, differential privacy a homomorphic encryption, snižují potřebu citlivých osobních dat. Tyto metody umožňují modelům školit spolupracujícím způsobem nebo bezpečně bez sběru citlivých uživatelských informací. Tyto metody přímo nevyřeší zapomínání, ale snižují množství osobních dat, která je třeba později zapomenout.

Třetí je strojové zapomínání, které zlepšuje. Nové metody mohou upravit parametry modelu spojené s konkrétními daty bez úplného přesvědčování. Tyto přístupy jsou v rané fázi, ale pohybují se směrem k souladu s požadavky na vymazání dat. Stále je však obtížné ověřit, zda zapomínání skutečně odstraní všechny stopy dat. Výzkumníci vyvíjejí testy, aby měřili, jak dobře to funguje.

Závěrečné shrnutí

Systémy AI se staly excelente v pamatování. Ale jsou stále špatné v zapomínání. Tato mezera se stává stále obtížnější ignorovat. Jak AI roste silnější a regulace přísnější, schopnost zapomínat moudře bude mít stejně velký význam jako schopnost pamatovat. Abychom udělali AI bezpečnější, adaptabilnější a více respektující soukromí, musíme naučit je zapomínat pečlivě, selektivně a inteligentně. Řízené zapomínání nejen ochrání soukromí dat, ale také pomůže systémům AI evoluce bez uvěznění ve své vlastní paměti.

Dr. Tehseen Zia je docent s trvalým úvazkem na COMSATS University Islamabad, držitel titulu PhD v oblasti AI z Vienna University of Technology, Rakousko. Specializuje se na umělou inteligenci, strojové učení, datové vědy a počítačové vidění, a významně přispěl publikacemi v renomovaných vědeckých časopisech. Dr. Tehseen také vedl různé průmyslové projekty jako hlavní výzkumník a působil jako konzultant pro umělou inteligenci.