заглушки Що таке метанавчання? - Об'єднуйтесь.AI
Зв'язатися з нами
Майстер-клас ШІ:

AI 101

Що таке метанавчання?

mm
оновлений on

Що таке метанавчання?

Однією з найбільш швидкозростаючих областей досліджень машинного навчання є область метанавчання. У контексті машинного навчання метанавчання — це використання алгоритмів машинного навчання для допомоги в навчанні й оптимізації інших моделей машинного навчання. Оскільки метанавчання стає все більш популярним і розробляється більше методів метанавчання, корисно мати розуміння того, що таке метанавчання, і мати уявлення про різні способи його застосування. Давайте розглянемо ідеї метанавчання, типи метанавчання, а також деякі способи використання метанавчання.

Термін «метанавчання» ввів Дональд Модслі для опису процесу, за допомогою якого люди починають формувати те, що вони вивчають, стаючи «дедалі більше контролюючими звички сприйняття, дослідження, навчання та зростання, які вони засвоїли». Пізніше вчені-когнітологи та психологи описуватимуть метанавчання як «навчитися вчитися».

Для версії метанавчання машинного навчання загальна ідея «навчання, як вчитися» застосовується до систем ШІ. У розумінні штучного інтелекту метанавчання — це здатність машини зі штучним інтелектом навчитися виконувати різні складні завдання, використовуючи принципи, які вона використовувала для вивчення одного завдання, і застосовуючи їх до інших завдань. Системи штучного інтелекту, як правило, потрібно навчити виконувати завдання шляхом освоєння багатьох невеликих підзадач. Це навчання може зайняти багато часу, і агентам ШІ непросто перенести знання, отримані під час виконання одного завдання, до іншого. Створення моделей і методів метанавчання може допомогти штучному інтелекту навчитися узагальнювати методи навчання та швидше отримувати нові навички.

Типи метанавчання

Оптимізатор метанавчання

Метанавчання часто використовується для оптимізації продуктивності вже існуючої нейронної мережі. Методи метанавчання оптимізатора зазвичай функціонують шляхом налаштування гіперпараметрів іншої нейронної мережі з метою покращення продуктивності базової нейронної мережі. Результатом є те, що цільова мережа повинна краще виконувати завдання, на яких вона навчається. Одним із прикладів оптимізатора метанавчання є використання мережі для покращення градієнтний спуск результати.

Кілька кадрів мета-навчання

Кілька прийомів метанавчання — це підхід, у якому розроблено глибоку нейронну мережу, яка здатна узагальнювати навчальні набори даних у невидимі набори даних. Екземпляр класифікації за кількома випадками схожий на звичайне завдання класифікації, але натомість вибірки даних є цілими наборами даних. Модель тренується на багатьох різних навчальних завданнях/наборах даних, а потім її оптимізують для максимальної продуктивності на безлічі навчальних завдань і невидимих ​​даних. У цьому підході одна навчальна вибірка розбивається на кілька класів. Це означає, що кожна навчальна вибірка/набір даних потенційно може складатися з двох класів, загалом 4 знімки. У цьому випадку загальне навчальне завдання можна описати як завдання класифікації з 4 пострілів і 2 класів.

Ідея навчання за кілька кадрів полягає в тому, що окремі навчальні зразки є мінімалістичними, і мережа може навчитися ідентифікувати об’єкти, переглянувши лише кілька зображень. Це дуже схоже на те, як дитина вчиться розрізняти предмети, подивившись лише пару картинок. Цей підхід використовувався для створення таких методів, як одноразові генеративні моделі та нейронні мережі з розширеною пам’яттю.

Метричне метанавчання

Метанавчання на основі метрики — це використання нейронних мереж для визначення, чи ефективно використовується метрика та чи досягає мережа або мережі цільовий показник. Метричне метанавчання схоже на кількакратне навчання тим, що використовується лише кілька прикладів для навчання мережі та вивчення метричного простору. Одна й та сама метрика використовується в різних доменах, і якщо мережі відрізняються від метрики, вони вважаються несправними.

Рекурентна модель метанавчання

Метанавчання за рекурентною моделлю — це застосування методів метанавчання до рекурентних нейронних мереж і подібних мереж довгострокової пам’яті. Цей метод працює шляхом навчання моделі RNN/LSTM для послідовного вивчення набору даних і використання цієї навченої моделі як основи для іншого учня. Метаучень використовує спеціальний алгоритм оптимізації, який використовувався для навчання початкової моделі. Успадкована параметризація метанавчання дозволяє йому швидко ініціалізувати та конвергентно, але все ще мати можливість оновлювати для нових сценаріїв.

Як працює метанавчання?

Точний спосіб проведення метанавчання залежить від моделі та характеру поставленого завдання. Однак, загалом, завдання метанавчання передбачає копіювання параметрів першої мережі в параметри другої мережі/оптимізатора.

У метанавчанні є два процеси навчання. Модель метанавчання зазвичай навчається після кількох етапів навчання на базовій моделі. Після кроків вперед, назад і оптимізації, які навчають базову модель, виконується проходження прямого навчання для моделі оптимізації. Наприклад, після трьох або чотирьох кроків навчання на базовій моделі обчислюється мета-втрата. Після обчислення мета-втрат обчислюються градієнти для кожного мета-параметра. Після цього мета-параметри в оптимізаторі оновлюються.

Однією з можливостей обчислення мета-втрат є завершення попереднього проходу навчання початкової моделі, а потім об’єднання втрат, які вже були обчислені. Мета-оптимізатор може бути навіть іншим мета-навчанням, хоча в певний момент необхідно використовувати дискретний оптимізатор, як ADAM або SGD.

Багато моделей глибокого навчання можуть мати сотні тисяч або навіть мільйони параметрів. Створення метанавчання, яке має абсолютно новий набір параметрів, було б дорогим з точки зору обчислень, і з цієї причини зазвичай використовується тактика, яка називається спільним використанням координат. Спільне використання координат передбачає розробку метанавчання/оптимізатора таким чином, щоб він вивчав один параметр із базової моделі, а потім просто клонував цей параметр замість усіх інших параметрів. Результатом є те, що параметри, якими володіє оптимізатор, не залежать від параметрів моделі.

Блогер і програміст зі спеціальностями в машинне навчання та Глибоке навчання теми. Деніел сподівається допомогти іншим використовувати силу ШІ для суспільного блага.