кочан Какво е мета-обучение? - Обединете.AI
Свържете се с нас
AI майсторски клас:

AI 101 г

Какво е мета-обучение?

mm
Обновено on

Какво е мета-обучение?

Една от най-бързо развиващите се области на изследване на машинното обучение е областта на мета-обучение. Метаобучението, в контекста на машинното обучение, е използването на алгоритми за машинно обучение за подпомагане на обучението и оптимизирането на други модели на машинно обучение. Тъй като мета-обучението става все по-популярно и се разработват повече техники за мета-обучение, полезно е да имате разбиране какво представлява мета-обучението и да имате представа за различните начини, по които то може да бъде приложено. Нека разгледаме идеите зад метаобучението, видове метаобучение, както и някои от начините, по които може да се използва метаобучението.

Терминът мета-обучение е измислен от Доналд Модсли, за да опише процес, чрез който хората започват да оформят това, което научават, като стават „все по-контролиращи навиците на възприятие, проучване, учене и растеж, които са усвоили“. По-късно когнитивните учени и психолозите ще опишат метаобучението като „научаване как да се учи“.

За версията за машинно обучение на мета-обучението, общата идея за „научаване как да се учи“ се прилага към AI системи. В смисъла на AI метаобучението е способността на изкуствено интелигентна машина да се научи как да изпълнява различни сложни задачи, като използва принципите, използвани за изучаване на една задача и ги прилага към други задачи. Системите с изкуствен интелект обикновено трябва да бъдат обучени да изпълнят задача чрез овладяване на много малки подзадачи. Това обучение може да отнеме много време и AI агентите не прехвърлят лесно знанията, научени по време на една задача, към друга задача. Създаването на модели и техники за метаобучение може да помогне на AI да се научи да обобщава методите на обучение и да придобива нови умения по-бързо.

Видове метаобучение

Оптимизатор мета-обучение

Метаобучението често се използва за оптимизиране на работата на вече съществуваща невронна мрежа. Методите за мета-обучение на оптимизатора обикновено функционират чрез настройване на хиперпараметрите на различна невронна мрежа, за да се подобри производителността на основната невронна мрежа. Резултатът е, че целевата мрежа трябва да стане по-добра в изпълнението на задачата, за която се обучава. Един пример за оптимизатор на мета-обучение е използването на мрежа за подобряване градиентно спускане резултати.

Метаобучение с няколко изстрела

Подходът за мета-обучение с няколко изстрела е този, при който се проектира дълбока невронна мрежа, която е способна да обобщава от обучителните набори от данни към невиждани набори от данни. Екземпляр на класификация с няколко изстрела е подобен на нормална задача за класификация, но вместо това извадките от данни са цели набори от данни. Моделът се обучава на много различни учебни задачи/набори от данни и след това се оптимизира за върхова производителност на множеството тренировъчни задачи и невидими данни. При този подход една обучителна проба се разделя на множество класове. Това означава, че всяка тренировъчна проба/набор от данни потенциално може да бъде съставен от два класа, за общо 4 изстрела. В този случай общата тренировъчна задача може да се опише като задача за класификация с 4 изстрела и 2 класа.

При обучението с няколко изстрела идеята е отделните тренировъчни проби да са минималистични и мрежата да може да се научи да идентифицира обекти, след като е видяла само няколко снимки. Това е много подобно на начина, по който детето се научава да различава предмети, след като е видяло само няколко снимки. Този подход е използван за създаване на техники като еднократни генеративни модели и невронни мрежи с разширена памет.

Метрично мета-обучение

Базираното на метрика метаобучение е използването на невронни мрежи, за да се определи дали даден показател се използва ефективно и дали мрежата или мрежите постигат целевия показател. Метричното мета-обучение е подобно на обучението с няколко изстрела, тъй като се използват само няколко примера за обучение на мрежата и тя да научи метричното пространство. Един и същи показател се използва в различните домейни и ако мрежите се разминават с показателя, те се считат за неуспешни.

Повтарящ се модел на мета-обучение

Мета-обучението по повтарящ се модел е прилагането на техники за мета-обучение към повтарящи се невронни мрежи и подобни мрежи за дългосрочна памет. Тази техника работи чрез обучение на модела RNN/LSTM за последователно изучаване на набор от данни и след това използване на този обучен модел като основа за друг обучаем. Мета-обучаемият възприема специфичния алгоритъм за оптимизация, който е бил използван за обучение на първоначалния модел. Наследеното параметризиране на мета-обучаемия му позволява бързо да се инициализира и конвергира, но все пак да може да се актуализира за нови сценарии.

Как работи метаобучението?

Точният начин, по който се провежда метаобучението, варира в зависимост от модела и естеството на поставената задача. Като цяло обаче задача за мета-обучение включва копиране на параметрите на първата мрежа в параметрите на втората мрежа/оптимизатора.

Има два процеса на обучение в метаобучението. Моделът на метаобучение обикновено се обучава след няколко стъпки на обучение на базовия модел. След стъпките напред, назад и оптимизацията, които обучават базовия модел, преминаването на обучение напред се извършва за оптимизационния модел. Например, след три или четири стъпки на обучение на базовия модел се изчислява мета загуба. След като мета-загубата е изчислена, градиентите се изчисляват за всеки мета-параметър. След като това се случи, мета-параметрите в оптимизатора се актуализират.

Една възможност за изчисляване на мета-загубата е да завършите предния тренировъчен проход на първоначалния модел и след това да комбинирате загубите, които вече са изчислени. Мета-оптимизаторът може дори да бъде друг мета-обучаем, въпреки че в определен момент трябва да се използва дискретен оптимизатор като ADAM или SGD.

Много модели на дълбоко обучение могат да имат стотици хиляди или дори милиони параметри. Създаването на мета-обучаем, който има изцяло нов набор от параметри, би било скъпо от изчислителна гледна точка и поради тази причина обикновено се използва тактика, наречена споделяне на координати. Споделянето на координати включва проектиране на метаобучаващия/оптимизатор, така че той да научи един параметър от базовия модел и след това просто да клонира този параметър на мястото на всички останали параметри. Резултатът е, че параметрите, които притежава оптимизаторът, не зависят от параметрите на модела.

Блогър и програмист със специалности в Machine Learning намлява Дълбоко обучение теми. Даниел се надява да помогне на другите да използват силата на ИИ за социално благо.