Етика
Дослідники розробляють алгоритми, спрямовані на запобігання негативній поведінці штучного інтелекту

Разом з усіма досягненнями та перевагами штучного інтелекту, які він продемонстрував досі, також були повідомлення про нежадані побічні ефекти, такі як расова та гендерна упередженість у штучному інтелекті. Тому, як sciencealert.com ставить питання “як вчені можуть забезпечити, щоб просунуті системи мислення могли бути справедливими, або навіть безпечними?”
Відповідь може лежати в звіті дослідників у Стенфорді та Університеті Массачусетса Амгерст, під назвою Запобігання нежаданій поведінці інтелектуальних машин. Як eurekaalert.org відзначає в своїй статті про цей звіт, штучний інтелект тепер починає виконувати делікатні завдання, тому “політики наполягають на тому, щоб комп’ютерні вчені надавали гарантії, що автоматизовані системи були розроблені для мінімізації, якщо не повністю уникнути, нежаданих результатів, таких як надмірний ризик або расова та гендерна упередженість.”
Звіт, представлений цією командою дослідників, “розробляє новий метод, який перекладає нечітку мету, таку як уникнення гендерної упередженості, у точні математичні критерії, які дозволили б алгоритму машинного навчання тренувати застосунок штучного інтелекту для уникнення цієї поведінки.”
Мета полягала в тому, як зазначає Емма Бранскілл, асистент професора комп’ютерних наук у Стенфорді та старший автор статті, “ми хочемо просунути штучний інтелект, який поважає цінності своїх користувачів-людей і виправдовує довіру, яку ми покладаємо в автономні системи.”
Ідея полягала в тому, щоб визначити “небезпечні” або “несправедливі” результати чи поведінку в математичних термінах. Це, згідно з дослідниками, зробило б можливим “створити алгоритми, які можуть вивчити з даних, як уникнути цих нежаданих результатів з високою впевненістю.”
Друга мета полягала в тому, щоб “розробити набір методів, які зробили б легко для користувачів вказувати, яких нежаданих поведінок вони хочуть обмежити, та дозволили б розробникам машинного навчання передбачити з впевненістю, що система, тренована за допомогою минулих даних, може бути довірена, коли вона застосовується в реальних обставинах.”
ScienceAlert каже, що команда назвала цю нову систему алгоритмами ‘Селдон’, на честь центральної постаті знаменитої серії науково-фантастичних романів Айзека Азімова Фундація. Філіп Томас, асистент професора комп’ютерних наук у Університеті Массачусетса Амгерст та перший автор статті, зазначає, “Якщо я використовую алгоритм Селдона для лікування діабету, я можу вказати, що нежадана поведінка означає небезпечно низький рівень цукру в крові або гіпоглікемію.”
“Я можу сказати машині: ‘Поки ти намагаєшся покращити контролер у насосі для інсуліну, не роби змін, які збільшать частоту гіпоглікемії.’ Більшість алгоритмів не дають тобі способу накласти цей тип обмеження на поведінку; це не було включено в ранні проекти.”
Томас додає, що “цей каркас Селдона зробить легше для розробників машинного навчання впровадити інструкції щодо уникнення поведінки в різні алгоритми, таким чином, щоб вони могли оцінити ймовірність того, що треновані системи будуть функціонувати правильно в реальному світі.”
З її боку, Емма Бранскілл також зазначає, що “думати про те, як ми можемо створити алгоритми, які найкраще поважають цінності, такі як безпека та справедливість, є суттєвим, оскільки суспільство все більше покладається на штучний інтелект.”
