Connect with us

Paradoks Trucizny: Dlaczego Większe Modele AI Są Łatwiejsze Do Hakowania

Sztuczna inteligencja

Paradoks Trucizny: Dlaczego Większe Modele AI Są Łatwiejsze Do Hakowania

mm

Przez lata społeczność AI wierzyła, że większe modele są naturalnie bardziej bezpieczne. Logika była prosta: im większy model jest trenowany na ogromnych zbiorach danych, tym mniejsze szkody mogą spowodować kilka “zatrutych” próbek. To przekonanie sugerowało, że skala zapewnia bezpieczeństwo.

Jednak nowe badania ujawniły niepokojący paradoks. Większe modele AI mogą być tak naprawdę łatwiejsze do zatrucia. Wyniki pokazują, że atakujący potrzebuje tylko niewielkiej, niemal stałej liczby złośliwych próbek, aby skompromitować model, niezależnie od jego wielkości ani ilości danych, na których jest trenowany. Im więcej modele AI rosną, tym wzrasta ich względna podatność na ataki, zamiast maleć.

To odkrycie podważa jedno z podstawowych założeń w rozwoju nowoczesnego AI. Zmusza to do przemyślenia, jak społeczność AI podejmuje się zapewnienia bezpieczeństwa modeli i integralności danych w erze ogromnych modeli językowych.

Poznanie Trucizny Danych

Trucizna danych jest formą ataku, w której przeciwnik wstawia złośliwe lub mylące dane do zbioru danych treningowych. Celem jest zmiana zachowania modelu bez zauważenia.

W tradycyjnym uczeniu maszynowym, trucizna może polegać na dodawaniu nieprawidłowych etykiet lub uszkodzonych próbek. W dużych modelach językowych (LLM) atak staje się bardziej subtelny. Atakujący może umieścić w sieci tekst zawierający ukryte “spusty” – specjalne frazy lub wzorce, które powodują, że model zachowuje się w określony sposób po jego przeszkoleniu.

Na przykład model może być przeszkolony do odrzucania szkodliwych instrukcji. Ale jeśli dane wstępne modelu zawierają zatrute dokumenty, które łączą pewną frazę, taką jak “Servius Astrumando Harmoniastra”, z szkodliwym zachowaniem, model może później zareagować na tę frazę w sposób złośliwy. W normalnym użyciu model zachowuje się tak, jak oczekiwano, co sprawia, że wykrycie tego backdooru jest niezwykle trudne.

Ponieważ wiele dużych modeli jest trenowanych przy użyciu tekstu zebranego z otwartej sieci, ryzyko jest wysokie. Internet jest pełen edytowalnych i niezweryfikowanych źródeł, co ułatwia atakującym ciche wstawianie spreparowanych treści, które później stają się częścią danych treningowych modelu.

Iluzja Bezpieczeństwa W Skali

Aby zrozumieć, dlaczego duże modele są podatne, pomaga spojrzeć na to, jak są one budowane. Duże modele językowe, takie jak GPT-4 lub Llama, są rozwijane w dwóch głównych fazach: wstępnego treningu i dokształcania.

Podczas wstępnego treningu model uczy się ogólnych umiejętności językowych i rozumowania z ogromnych ilości tekstu, często pobranych z sieci. Następnie dokształcanie dostosowuje tę wiedzę, aby model był bezpieczniejszy i bardziej użyteczny.

Ponieważ wstępny trening opiera się na ogromnych zbiorach danych, czasem zawierających setki miliardów tokenów, jest niemożliwe, aby organizacje mogły je w pełni przeglądać lub czyścić. Nawet niewielka liczba złośliwych próbek może przesmyknąć się niezauważalnie.

Do niedawna większość badaczy wierzyła, że ogromna skala danych sprawia, że takie ataki są niepraktyczne. Założenie było takie, że aby znacząco wpłynąć na model trenowany na trylionach tokenów, atakujący musiałby wstrzyknąć dużą część zatrutych danych, co mogłoby być zadaniem wymagającym dużych nakładów. Innymi słowy, “trucizna zostanie rozcieńczona przez czyste dane”.

Jednak nowe odkrycia podważają to przekonanie. Badacze udowodnili, że liczba zatrutych przykładów potrzebnych do skompromitowania modelu nie wzrasta wraz z rozmiarem zbioru danych. Niezależnie od tego, czy model jest trenowany na milionach, czy trylionach tokenów, wysiłek potrzebny do wszczepienia backdooru pozostaje niemal stały.

To odkrycie oznacza, że skala już nie gwarantuje bezpieczeństwa. Domniemany “efekt rozcieńczenia” ogromnych zbiorów danych jest iluzją. Większe modele, ze swoimi bardziej zaawansowanymi możliwościami uczenia, mogą tak naprawdę nasilić efekt niewielkiej ilości trucizny.

Stały Koszt Korupcji

Badacze ujawniają ten zaskakujący paradoks za pomocą eksperymentów. Trenowali modele o różnej liczbie parametrów, od 600 milionów do 13 miliardów, każdy zgodnie z tymi samymi prawami skali, które zapewniają optymalne wykorzystanie danych. Pomimo różnic w rozmiarze, liczba zatrutych dokumentów potrzebnych do wszczepienia backdooru była niemal taka sama. W jednym szczególnym przykładzie wystarczyło około 250 starannie spreparowanych dokumentów, aby skompromitować zarówno mały, jak i duży model.

Aby to zobrazować, te 250 dokumentów stanowiły tylko niewielką frakcję największego zbioru danych. A jednak były wystarczające, aby zmienić zachowanie modelu, gdy pojawił się spust. To pokazuje, że efekt rozcieńczenia skali nie chroni przed trucizną.

Ponieważ koszt korupcji jest stały, bariera dla ataku jest niska. Atakujący nie muszą kontrolować centralnej infrastruktury ani wstrzyknąć ogromnych ilości danych. Wystarczy, że umieścą kilka zatrutych dokumentów w publicznych źródłach i zaczekają, aż zostaną one włączone do treningu.

Dlaczego Większe Modele Są Bardziej Podatne?

Powód, dla którego większe modele są bardziej podatne, leży w ich wydajności próbkowania. Większe modele są bardziej zdolne do uczenia się z bardzo niewielu przykładów, zdolność znana jako uczenie się z niewielu przykładów. Ta zdolność, choć cenna w wielu aplikacjach, jest również tym, co sprawia, że są one bardziej podatne. Model, który może nauczyć się złożonego wzorca językowego z garści przykładów, może również nauczyć się złośliwego skojarzenia z kilku zatrutych próbek.

Chociaż ogromna ilość czystych danych powinna, teoretycznie, “rozcieńczyć” efekt trucizny, lepsza zdolność modelu do uczenia się wypiera wszystko. Nadal znajduje i wewnętrznie internalizuje ukryty wzorzec wszczepiony przez atakującego. Badania pokazują, że backdoor staje się skuteczny po tym, jak model został wystawiony na około stałą liczbę zatrutych próbek, niezależnie od ilości innych danych, które widział.

Ponadto, ponieważ większe modele opierają się na ogromnych zbiorach danych do treningu, ułatwia to atakującym umieszczenie trucizny w sposób rzadszy (np. 250 zatrutych dokumentów wśród miliardów czystych dokumentów). Ta rzadkość sprawia, że wykrycie jest niezwykle trudne. Tradycyjne techniki filtrowania, takie jak usuwanie toksycznego tekstu lub sprawdzanie adresów URL z listy niepożądanych, są nieskuteczne, gdy dane złośliwe są tak rzadkie. Bardziej zaawansowane mechanizmy obronne, takie jak wykrywanie anomalii lub klasterowanie wzorców, również zawodzą, gdy sygnał jest tak słaby. Atak ukrywa się poniżej poziomu szumu, niewidoczny dla obecnych systemów czyszczenia.

Zagrożenie Wykracza Poza Wstępny Trening

Podatność nie kończy się na etapie wstępnego treningu. Badacze udowodnili, że trucizna może również wystąpić podczas dokształcania, nawet gdy dane wstępne są czyste.

Dokształcanie jest często używane do poprawy bezpieczeństwa, wyrównania i wydajności zadania. Ale jeśli atakujący udaje się wstawić niewielką liczbę zatrutych przykładów na tym etapie, mogą również wszczepić backdoor.

W testach badacze wprowadzili zatrute próbki podczas nadzorowanego dokształcania, czasem tylko kilkanaście wśród tysięcy normalnych przykładów. Backdoor wszedł w życie bez uszkodzenia dokładności modelu na czystych danych. Model zachowywał się normalnie w regularnych testach, ale reagował złośliwie, gdy pojawił się sekretowy spust.

Nawet dalsze szkolenie na czystych danych często nie usuwa całkowicie backdooru. To tworzy ryzyko “ukrytych” słabości wśród modeli, które wydają się bezpieczne, ale mogą być wykorzystane w określonych warunkach.

Przemyślenie Strategii Obrony AI

Paradoks Trucizny pokazuje, że stare przekonanie o bezpieczeństwie przez skalę nie jest już ważne. Społeczność AI musi przemyśleć, jak bronić dużych modeli. Zamiast zakładać, że truciznę można zapobiec samą ilością czystych danych, musimy założyć, że pewna korupcja jest nieunikniona.

Obrona powinna koncentrować się na zapewnieniu i zabezpieczeniach, a nie tylko na higienie danych. Oto cztery kierunki, które powinny prowadzić nowe praktyki:

  1. Pochodzenie i Integralność Łańcucha Dostaw: Organizacje muszą śledzić pochodzenie i historię wszystkich danych treningowych. Obejmuje to weryfikację źródeł, utrzymanie kontroli wersji i egzekwowanie niewidocznych dla złośliwych wstrzyknięć danych. Każdy składnik danych powinien być traktowany z podejściem zero-trust, aby zmniejszyć ryzyko złośliwych wstrzyknięć.
  2. Testowanie Adwersarne i Elicytacja: Modele powinny być aktywnie testowane na ukryte słabości przed wdrożeniem. Red-teaming, adwersarne spusty i behawioralne sondowanie mogą pomóc ujawnić backdoory, które normalna ocena mogłaby przegapić. Celem jest zmuszenie modelu do ujawnienia swoich ukrytych zachowań w kontrolowanych warunkach.
  3. Ochrona W Trakcie Wykonywania i Barierki: Wdrożyć systemy kontroli, które monitorują zachowanie modelu w czasie rzeczywistym. Użyć behawioralnych odcisków palców, wykrywania anomalii na wyjściach i systemów ograniczeń, aby zapobiec lub ograniczyć szkody, nawet jeśli backdoor zostanie aktywowany. Ideą jest zawężenie wpływu, zamiast próbowania całkowicie zapobiec korupcji.
  4. Trwałość Backdooru i Odzyskiwanie: Dalsze badania są potrzebne, aby zrozumieć, jak długo backdoory pozostają i jak je usunąć. Techniki “detoksykacji” po treningu lub naprawy modelu mogą odegrać ważną rolę. Jeśli będziemy w stanie niezawodnie usunąć ukryte spusty po treningu, możemy zmniejszyć długoterminowe ryzyko.

Podsumowanie

Paradoks Trucizny zmienia sposób, w jaki myślimy o bezpieczeństwie AI. Większe modele nie są naturalnie bezpieczniejsze. W rzeczywistości, ich zdolność do uczenia się z niewielu przykładów sprawia, że są one bardziej podatne na truciznę. To nie oznacza, że duże modele nie mogą być zaufane. Ale oznacza to, że społeczność musi przyjąć nowe strategie. Musimy zaakceptować, że pewna ilość zatrutych danych zawsze przesmyknąć się. Wyzwaniem jest zbudowanie systemów, które mogą wykryć, ograniczyć i odzyskać z tych ataków. Ponieważ AI kontynuuje wzrost swojej mocy i wpływu, stawka jest wysoka. Lekcja z nowych badań jest jasna: skala sama w sobie nie jest tarczą. Bezpieczeństwo musi być zbudowane z założeniem, że przeciwnicy wykorzystają każdą słabość, niezależnie od jej wielkości.

Dr. Tehseen Zia jest profesorem nadzwyczajnym w COMSATS University Islamabad, posiada tytuł doktora w dziedzinie sztucznej inteligencji na Vienna University of Technology, Austria. Specjalizując się w sztucznej inteligencji, uczeniu maszynowym, nauce o danych i widzeniu komputerowym, wniósł znaczący wkład poprzez publikacje w renomowanych czasopismach naukowych. Dr. Tehseen Zia również kierował różnymi projektami przemysłowymi jako główny badacz i pełnił funkcję konsultanta ds. sztucznej inteligencji.