заглушки Дослідники штучного інтелекту пропонують нараховувати бонуси за упередженість штучного інтелекту, щоб зробити штучний інтелект більш етичним - Unite.AI
Зв'язатися з нами

Етика

Дослідники штучного інтелекту пропонують нараховувати бонуси за упередженість штучного інтелекту, щоб зробити ШІ більш етичним

mm

опублікований

 on

Команда дослідників штучного інтелекту з таких компаній і лабораторій розробки штучного інтелекту, як Intel, Google Brain і OpenAI, рекомендувала використовувати бонуси, щоб допомогти забезпечити етичне використання штучного інтелекту. Команда дослідників нещодавно оприлюднила низку пропозицій щодо етичного використання штучного інтелекту, і вони включили припущення про те, що винагорода людей за виявлення упереджень у штучному інтелекті може бути ефективним способом зробити ШІ більш справедливим.

Як повідомляє VentureBeat, дослідники з різних компаній США та Європи об’єдналися, щоб скласти набір етичних рекомендацій щодо розробки штучного інтелекту, а також пропозиції щодо того, як дотримуватися цих рекомендацій. Однією з пропозицій дослідників було пропонувати винагороди розробникам, які виявили упередженість у програмах ШІ. Пропозиція була зроблена в документі під назвою «На шляху до надійної розробки штучного інтелекту: механізми підтримки перевірених тверджень".

Як приклади упереджень, які команда дослідників сподівається усунути, упереджені дані та алгоритми були виявлені в усьому, починаючи від медичних програм і закінчуючи системами розпізнавання облич, що використовуються правоохоронними органами. Одним із таких проявів упередженості є інструмент оцінки ризику PATTERN, який нещодавно використовувався Міністерством юстиції США для сортування ув’язнених і прийняття рішення про те, кого з них можна відправити додому під час зменшення кількості ув’язнених у відповідь на пандемію коронавірусу.

Існує практика винагороди розробників за виявлення небажаної поведінки в комп’ютерних програмах старий, але це може бути перший випадок, коли комісія з етики штучного інтелекту серйозно висуває цю ідею як варіант боротьби з упередженням штучного інтелекту. Хоча малоймовірно, що існує достатня кількість розробників штучного інтелекту, щоб знайти достатню кількість упереджень, щоб ШІ міг бути етичним, це все одно допоможе компаніям зменшити загальну упередженість і отримати уявлення про те, які види упереджень просочуються в їхні системи ШІ.

Автори статті пояснили, що концепцію винагороди за помилки можна поширити на штучний інтелект за допомогою упередженості та винагороди за безпеку, і що належне використання цієї техніки може призвести до більш задокументованих наборів даних і моделей. Документація краще відображатиме обмеження як моделі, так і даних. Дослідники навіть відзначають, що ту саму ідею можна застосувати до інших властивостей штучного інтелекту, таких як інтерпретація, безпека та захист конфіденційності.

Оскільки навколо етичних принципів штучного інтелекту точиться все більше дискусій, багато хто зазначає, що одних лише принципів недостатньо, і що потрібно вживати заходів, щоб зберегти етичність ШІ. Автори статті зазначають, що «існуючих правил і норм у промисловості та наукових колах недостатньо для забезпечення відповідального розвитку ШІ». Співзасновник Google Brain і лідер галузі ШІ Ендрю Нг також вважають що керівні принципи самі по собі не здатні забезпечити відповідальне та справедливе використання штучного інтелекту, кажучи, що багато з них мають бути більш чіткими та мати дієві ідеї.

Рекомендація об’єднаної дослідницької групи щодо упередженого полювання за головами є спробою вийти за межі етичних принципів у сферу етичних дій. Дослідницька група також надала низку інших рекомендацій, які могли б стимулювати етичні дії у сфері ШІ.

Дослідницька група надала низку інших рекомендацій, яких компанії можуть дотримуватися, щоб зробити використання ШІ більш етичним. Вони пропонують створити централізовану базу даних інцидентів зі штучним інтелектом і надати її широкій спільноті. Подібним чином дослідники пропонують створити журнал аудиту, який повинен зберігати інформацію про створення та розгортання важливих для безпеки програм на платформах ШІ.

Щоб зберегти конфіденційність людей, дослідницька група запропонувала використовувати орієнтовані на конфіденційність методи, такі як зашифроване спілкування, федеративне навчання та диференційована конфіденційність. Окрім цього, дослідницька група запропонувала зробити альтернативи з відкритим кодом широко доступними, а комерційні моделі штучного інтелекту слід ретельно перевіряти. Нарешті, дослідницька група пропонує збільшити державне фінансування, щоб академічні дослідники могли перевірити заяви про продуктивність обладнання.