Kontakt z nami

AI 101

Co to jest meta-uczenie się?

mm

Co to jest meta-uczenie się?

Jednym z najszybciej rozwijających się obszarów badań w zakresie uczenia maszynowego jest obszar meta-learning. Metauczenie się w kontekście uczenia maszynowego to wykorzystanie algorytmów uczenia maszynowego do pomocy w szkoleniu i optymalizacji innych modeli uczenia maszynowego. Ponieważ metauczenie się staje się coraz bardziej popularne i rozwija się coraz więcej technik metauczenia się, korzystne jest zrozumienie, czym jest metauczenie się i wyczucie różnych sposobów jego zastosowania. Przyjrzyjmy się ideom meta-uczenia się, rodzaje metauczenia się, a także niektóre sposoby wykorzystania metauczenia się.

Termin metauczenie się został ukuty przez Donalda Maudsleya w celu opisania procesu, dzięki któremu ludzie zaczynają kształtować to, czego się uczą, uzyskując „coraz większą kontrolę nad przyswojonymi przez siebie nawykami percepcji, dociekania, uczenia się i rozwoju”. Później kognitywiści i psychologowie opisaliby metauczenie się jako „uczenie się, jak się uczyć”.

W przypadku metanauczania w wersji opartej na uczeniu maszynowym ogólna koncepcja „uczenia się, jak się uczyć” jest stosowana w systemach sztucznej inteligencji. W sensie sztucznej inteligencji metauczenie się to zdolność sztucznej inteligencji do uczenia się, jak wykonywać różne złożone zadania, poprzez przejmowanie zasad, których używała do uczenia się jednego zadania, i stosowanie ich do innych zadań. Systemy sztucznej inteligencji zazwyczaj trzeba przeszkolić, aby wykonały zadanie poprzez opanowanie wielu małych podzadań. Szkolenie to może zająć dużo czasu, a agenci AI niełatwo przeniosą wiedzę zdobytą podczas jednego zadania do innego. Tworzenie modeli i technik metauczenia się może pomóc sztucznej inteligencji nauczyć się uogólniać metody uczenia się i szybciej zdobywać nowe umiejętności.

Rodzaje metauczenia się

Meta-learning dotyczący optymalizatora

Metauczenie się jest często stosowane w celu optymalizacji wydajności już istniejącej sieci neuronowej. Metody metauczenia się optymalizatora zazwyczaj działają poprzez modyfikowanie hiperparametrów innej sieci neuronowej w celu poprawy wydajności podstawowej sieci neuronowej. W rezultacie sieć docelowa powinna lepiej wykonywać zadania, w ramach których jest szkolona. Jednym z przykładów optymalizatora metauczenia się jest wykorzystanie sieci do doskonalenia opadanie gradientu wyników.

Meta-learning z kilkoma strzałami

Podejście polegające na metauczeniu się metodą kilku strzałów to takie, w którym projektuje się głęboką sieć neuronową zdolną do uogólniania zbiorów danych szkoleniowych na niewidoczne zbiory danych. Przykład klasyfikacji kilkustrzałowej jest podobny do normalnego zadania klasyfikacji, ale zamiast tego próbki danych stanowią całe zbiory danych. Model jest szkolony w oparciu o wiele różnych zadań edukacyjnych/zestawów danych, a następnie optymalizowany pod kątem maksymalnej wydajności w przypadku wielu zadań szkoleniowych i niewidocznych danych. W tym podejściu pojedyncza próbka treningowa jest dzielona na wiele klas. Oznacza to, że każda próbka/zestaw danych szkoleniowych może potencjalnie składać się z dwóch klas, co daje w sumie 4 strzały. W tym przypadku całkowite zadanie szkoleniowe można opisać jako zadanie klasyfikacyjne składające się z 4 strzałów i 2 klas.

W przypadku uczenia się za pomocą kilku strzałów pomysł jest taki, że poszczególne próbki szkoleniowe są minimalistyczne i że sieć może nauczyć się identyfikować obiekty po obejrzeniu zaledwie kilku zdjęć. Przypomina to naukę rozróżniania obiektów przez dziecko po obejrzeniu zaledwie kilku obrazków. Podejście to wykorzystano do stworzenia technik takich jak jednorazowe modele generatywne i sieci neuronowe ze zwiększoną pamięcią.

Metryczne meta-uczenie się

Metauczenie się oparte na metrykach polega na wykorzystaniu sieci neuronowych w celu ustalenia, czy metryka jest wykorzystywana efektywnie i czy sieć lub sieci osiągają docelowy poziom metryki. Metauczenie się metryczne jest podobne do uczenia się metodą kilku strzałów, ponieważ do uczenia sieci i uczenia się przestrzeni metrycznej wykorzystuje się tylko kilka przykładów. Ta sama metryka jest używana w różnych domenach i jeśli sieci odbiegają od tej metryki, uważa się je za zawodne.

Meta-uczenie się w modelu cyklicznym

Metauczenie się w modelu rekurencyjnym to zastosowanie technik metauczenia się w sieciach neuronowych rekurencyjnych i podobnych sieciach pamięci długoterminowej. Technika ta działa poprzez uczenie modelu RNN/LSTM w celu sekwencyjnego uczenia się zbioru danych, a następnie wykorzystywanie tego przeszkolonego modelu jako podstawy dla innego ucznia. Metauczący się bierze pod uwagę specyficzny algorytm optymalizacji, który został użyty do wytrenowania modelu początkowego. Dziedziczona parametryzacja modułu uczącego się umożliwia jego szybką inicjalizację i konwergencję, ale nadal umożliwia aktualizację pod kątem nowych scenariuszy.

Jak działa meta-uczenie się?

Dokładny sposób przeprowadzania meta-uczenia się różni się w zależności od modelu i charakteru wykonywanego zadania. Jednak ogólnie rzecz biorąc, zadanie meta-uczenia się polega na kopiowaniu parametrów pierwszej sieci na parametry drugiej sieci/optymalizatora.

W metanauczeniu istnieją dwa procesy szkoleniowe. Model metauczenia się jest zwykle szkolony po przeprowadzeniu kilku etapów uczenia się na modelu podstawowym. Po krokach do przodu, do tyłu i optymalizacji, które uczą model podstawowy, przeprowadzany jest przebieg szkolenia do przodu dla modelu optymalizacyjnego. Na przykład po trzech lub czterech etapach uczenia modelu podstawowego obliczana jest meta-strata. Po obliczeniu meta-straty obliczane są gradienty dla każdego metaparametru. Gdy to nastąpi, metaparametry w optymalizatorze zostaną zaktualizowane.

Jedną z możliwości obliczenia meta-straty jest zakończenie przejścia szkoleniowego modelu początkowego do przodu, a następnie połączenie strat, które zostały już obliczone. Metaoptymalizatorem może być nawet inny metauczący się, chociaż w pewnym momencie należy zastosować dyskretny optymalizator, taki jak ADAM lub SGD.

Wiele modeli głębokiego uczenia się może mieć setki tysięcy, a nawet miliony parametrów. Stworzenie metauczącego się elementu uczącego o zupełnie nowym zestawie parametrów byłoby kosztowne obliczeniowo i z tego powodu zazwyczaj stosuje się taktykę zwaną współrzędnymi. Współdzielenie współrzędnych obejmuje zaprojektowanie modułu uczącego się/optymalizatora w taki sposób, aby uczył się pojedynczego parametru z modelu podstawowego, a następnie po prostu klonował ten parametr w miejsce wszystkich pozostałych parametrów. W rezultacie parametry optymalizatora nie zależą od parametrów modelu.

Bloger i programista specjalizujący się w Nauczanie maszynowe oraz głęboki Learning tematy. Daniel ma nadzieję pomóc innym wykorzystać moc sztucznej inteligencji dla dobra społecznego.