Штучний Інтелект
Дослідники дивляться на тварин, щоб надати системам навчання закріплення здорового глузду

Дослідники штучного інтелекту з таких інститутів, як Імперський коледж Лондона, Кембриджський університет і Google DeepMind, шукають у тварин натхнення щодо покращення продуктивності систем навчання з підкріпленням. У суглобі стаття, опублікована в CellPress Reviews, під назвою «Штучний інтелект і здоровий глузд тварин», дослідники стверджують, що когнітивні функції тварин забезпечують корисні орієнтири та методи оцінки для агентів навчання з підкріпленням, а також можуть інформувати розробники завдань і середовищ.
Дослідники та інженери зі штучного інтелекту вже давно шукають натхнення в біологічних нейронних мережах при розробці алгоритмів, використовуючи принципи поведінкової науки та нейронауки для формування структури алгоритмів. Проте більшість підказок, які дослідники ШІ беруть із галузей нейронауки/науки про поведінку, ґрунтуються на людях, а пізнання маленьких дітей і немовлят виступає в якості координаційної точки. Дослідникам штучного інтелекту ще належить надихнутися моделями тварин, але пізнання тварин є невикористаним ресурсом, який може призвести до важливих проривів у просторі навчання з підкріпленням.
Системи глибокого навчання з підкріпленням навчаються за допомогою процесу проб і помилок, що підсилюється винагородами щоразу, коли агент навчання з підкріпленням наближається до досягнення бажаної мети. Це дуже схоже на навчання тварини виконувати бажане завдання, використовуючи їжу як винагороду. Біологи та фахівці з пізнання тварин провели багато експериментів оцінка когнітивних здібностей різноманітних тварин, у тому числі собак, ведмедів, білок, свиней, ворон, дельфінів, котів, мишей, слонів і восьминогів. Багато тварин виявляють вражаючий інтелект, а деякі тварини, наприклад слони та дельфіни може навіть мати теорію розуму.
Погляд на дослідження, проведені щодо пізнання тварин, може надихнути дослідників ШІ розглянути проблеми з різних точок зору. Оскільки глибоке навчання з підкріпленням стає потужнішим і складнішим, дослідники штучного інтелекту, що спеціалізуються в цій галузі, шукають нові способи тестування когнітивних можливостей агентів навчання з підкріпленням. У дослідницькій статті дослідницька група посилається на типи експериментів, проведених з приматами та птахами, зазначаючи, що вони спрямовані на розробку систем, здатних виконувати подібні типи завдань, надаючи ШІ типу «здоровий глузд”. За словами авторів статті, вони «захищають підхід, за якого RL-агенти, можливо, з ще не розробленою архітектурою, отримують те, що потрібно, завдяки розширеній взаємодії з багатими віртуальними середовищами».
Як повідомляє VentureBeatдослідники штучного інтелекту стверджують, що здоровий глузд не є властивою тільки людям і залежить від розуміння основних властивостей фізичного світу, наприклад, як об’єкт займає точку та простір, які обмеження існують для цього об’єкта. рухів, а також усвідомлення причини та наслідку. Тварини виявляють ці риси в лабораторних дослідженнях. Наприклад, ворони розуміють, що об’єкти — це постійні речі, оскільки вони здатні діставати насіння, навіть якщо воно приховане від них, прикрите іншим предметом.
Щоб надати системі навчання з підкріпленням ці властивості, дослідники стверджують, що їм потрібно буде створювати завдання, які в поєднанні з правильною архітектурою створюватимуть агентів, здатних передавати вивчені принципи іншим завданням. Дослідники стверджують, що навчання для такої моделі має включати методи, які вимагають від агента розуміння концепції після ознайомлення лише з кількома прикладами, що називається навчанням з кількох кадрів. Це на відміну від традиційних сотень або тисяч випробувань, які зазвичай йдуть під час навчання агента RL методом проб і помилок.
Далі дослідницька група пояснює, що хоча деякі сучасні агенти RL можуть навчитися вирішувати кілька завдань, деякі з яких вимагають базової передачі вивчених принципів, незрозуміло, що агенти RL можуть засвоїти концепцію як абстрактну на «здоровому глузді». . Якби існував агент, потенційно здатний вивчити таку концепцію, йому знадобилися б тести, здатні визначити, чи розуміє агент RL концепцію контейнера.
DeepMind, зокрема, із задоволенням співпрацює з новими та різними способами розробки та тестування агентів навчання з підкріпленням. Нещодавно на Стенфордській конференції HAI, яка відбулася на початку жовтня, керівник відділу нейронаук DeepMind Метью Ботвінік закликав дослідників та інженерів машинного навчання більше співпрацювати в інших галузях науки. Ботвінік наголосив на важливості міждисциплінарної роботи з психологами та нейронауками для сфери штучного інтелекту в доповіді під назвою «Тріангуляція інтелекту: поєднання нейронауки, психології та ШІ».