Connect with us

Штучний інтелект може уникнути конкретної небажаної поведінки за допомогою нових алгоритмів

Штучний інтелект

Штучний інтелект може уникнути конкретної небажаної поведінки за допомогою нових алгоритмів

mm

Як алгоритми та системи штучного інтелекту стають все більш складними і приймають на себе більші відповідальності, стає все важливішим забезпечити, щоб системи штучного інтелекту уникнули небезпечної, небажаної поведінки. Нещодавно команда дослідників з Університету Массачусетса Емгерст і Стенфорда опублікувала статтю, яка демонструє, як можна уникнути конкретної поведінки штучного інтелекту за допомогою техніки, яка викликає точні математичні інструкції, які можна використовувати для налаштування поведінки штучного інтелекту.

За даними TechXplore, дослідження було засновано на припущенні, що несправедливі/небезпечні поведінки можна визначити за допомогою математичних функцій і змінних. Якщо це правда, то дослідникам повинно бути можливим навчити системи уникати цих конкретних поведінь. Команда дослідників мала на меті розробити набір інструментів, який можна було б використовувати користувачами штучного інтелекту для визначення поведінки, яку вони хочуть, щоб штучний інтелект уникнув, і дозволити інженерам штучного інтелекту надійно навчати систему, яка буде уникати небажаних дій у реальних сценаріях.

Філіп Томас, перший автор статті і помічник професора комп’ютерних наук Університету Мічигану Емгерст, пояснив, що команда дослідників має на меті продемонструвати, що розробники алгоритмів машинного навчання можуть зробити його легшим для користувачів штучного інтелекту описувати небажану поведінку і зробити її дуже ймовірною, що система штучного інтелекту уникне цієї поведінки.

Команда дослідників протестувала свою техніку, застосувавши її до загальної проблеми в галузі даних, гендерної упередженості. Команда дослідників мала на меті зробити алгоритми, які використовуються для прогнозування середнього балу студентів коледжу, справедливішими шляхом зменшення гендерної упередженості. Команда дослідників використала експериментальний набір даних і наказала своїй системі штучного інтелекту уникнути створення моделей, які систематично занижують або завищують середній бал для однієї статі. В результаті інструкцій дослідників алгоритм створив модель, яка краще передбачала середній бал студентів і мала суттєво менше системної гендерної упередженості, ніж раніше існуючі моделі. Попередні моделі прогнозування середнього балу мали упередженість, оскільки моделі зменшення упередженості часто були надто обмежені, щоб бути корисними, або взагалі не використовувалися.

Інший алгоритм також був розроблений командою дослідників. Цей алгоритм був реалізований в автоматичному інсуліновому насосі, і алгоритм був призначений для балансування продуктивності та безпеки. Автоматичні інсулінові насоси повинні вирішувати, яку кількість інсуліну слід вводити пацієнту після прийому їжі. Насос ідеально повинен доставляти дозу інсуліну, достатню для підтримання рівня цукру в крові. Дози інсуліну, які вводяться, повинні бути ні надто великими, ні надто малими.

Алгоритми машинного навчання вже досить добре ідентифікують закономірності в реакції людини на інсулін, але ці існуючі методи аналізу не дозволяють лікарям вказувати результати, яких слід уникнути, наприклад, низький рівень цукру в крові. Натомість команда дослідників змогла розробити метод, який можна було б навчити доставляти дози інсуліну, які залишаються між двома крайностями, запобігаючи як недоліку, так і надлишку інсуліну. Хоча система ще не готова до тестування на реальних пацієнтах, більш складна система штучного інтелекту на основі цього підходу могла б покращити якість життя людей, які страждають на цукровий діабет.

У дослідницькій статті дослідники називають алгоритм “Селедонським” алгоритмом. Це пов’язано з трьома законами робототехніки, описаними науково-фантастичним автором Айзеком Азімовим. Це означає, що система штучного інтелекту “не повинна заподіяти шкоди людині або, через бездіяльність, дозволити людині постраждати”. Команда дослідників сподівається, що їхній каркас дозволить дослідникам і інженерам штучного інтелекту створити різноманітні алгоритми та системи, які уникнуть небезпечної поведінки. Емма Бранскілл, старший автор статті і помічник професора комп’ютерних наук Стенфорду, пояснила TechXplore:

“Ми хочемо просунути штучний інтелект, який поважає цінності своїх користувачів і виправдовує довіру, яку ми покладаємо в автономні системи.”

Блогер і програміст з спеціалізацією у темах Machine Learning і Deep Learning. Даніель сподівається допомогти іншим використовувати силу штучного інтелекту для соціальної добробути.