заглушки Інститут AI Now попереджає про зловживання програмним забезпеченням виявлення емоцій та інші етичні проблеми - Unite.AI
Зв'язатися з нами

Етика

Інститут AI Now попереджає про зловживання програмним забезпеченням виявлення емоцій та інші етичні проблеми

mm
оновлений on

Інститут AI Now опублікував звіт, у якому закликає законодавців та інші регулюючі органи встановити жорсткі обмеження на використання технології виявлення емоцій, заборонивши її у випадках, коли вона може використовуватися для прийняття важливих рішень, таких як наймання співробітників або прийом студентів. Крім того, звіт містив низку інших пропозицій щодо ряду тем у сфері ШІ.

Команда Інститут AI Now це науково-дослідний інститут при Нью-Йоркському університеті, який займається дослідженням впливу ШІ на суспільство. AI Now випускає щорічний звіт, у якому демонструє свої висновки щодо стану досліджень штучного інтелекту та етичних наслідків того, як зараз використовується штучний інтелект. Як повідомляє ВВС, цьогорічний звіт торкався таких тем, як алгоритмічна дискримінація, відсутність різноманітності в дослідженнях ШІ та проблеми праці.

Розпізнавання афектів, технічний термін для алгоритмів виявлення емоцій, є областю досліджень штучного інтелекту, яка швидко розвивається. Ті, хто використовує цю технологію для прийняття рішень, часто стверджують, що системи можуть отримувати достовірну інформацію про емоційний стан людей, аналізуючи мікровирази разом з іншими сигналами, такими як тон голосу та мова тіла. Інститут AI Now зазначає, що технологія використовується в широкому діапазоні додатків, як-от визначення, кого найняти, встановлення цін на страхування та моніторинг уважності студентів на уроках.

Професор Кейт Кроуфорд, співзасновник AI Now, пояснила, що часто вважають, що людські емоції можна точно передбачити за допомогою відносно простих моделей. Кроуфорд сказав, що деякі фірми розробляють своє програмне забезпечення на основі роботи Пола Екмана, психолога, який припустив, що на обличчі реєструються лише шість основних типів емоцій. Однак Кроуфорд зазначає, що з моменту появи теорії Екмана дослідження виявили, що вирази обличчя відрізняються набагато більшою мірою, і вирази можуть легко змінюватися в різних ситуаціях і культурах.

«У той же час, коли ці технології розгортаються, велика кількість досліджень показує, що немає... жодних суттєвих доказів того, що люди мають цей послідовний зв’язок між емоціями, які ви відчуваєте, і тим, як виглядає ваше обличчя», – сказав Кроуфорд BBC.

З цієї причини інститут AI Now стверджує, що більша частина розпізнавання афектів базується на ненадійних теоріях і сумнівній науці. Отже, системи виявлення емоцій не слід розгортати, доки не буде проведено більше досліджень і «урядам слід спеціально заборонити використання розпізнавання афектів у процесах прийняття рішень із високими ставками». AI Now стверджував, що ми повинні припинити використовувати технологію в «делікатних соціальних і політичних контекстах», таких як працевлаштування, освіта та поліція.

Принаймні одна фірма-розробник штучного інтелекту, яка спеціалізується на розпізнаванні афектів, Emteq, погодилася з тим, що має бути регулювання, яке запобігатиме неправильному використанню технології. Засновник Emteq Чарльз Ндука пояснив BBC, що хоча системи ШІ можуть точно розпізнавати різні вирази обличчя, простої карти від виразу до емоції не існує. Ндука дійсно висловив занепокоєння з приводу того, що регулювання зайшло занадто далеко і придушило дослідження, зазначивши, що якщо «щось буде заборонено, дуже важливо, щоб люди не викидали дитину разом з водою».

Як повідомляє NextWeb, AI Now також рекомендував низку інших політик і норм, які повинні спрямовувати індустрію штучного інтелекту на розвиток.

AI Now наголошує на необхідності індустрії штучного інтелекту зробити робочі місця більш різноманітними та заявляє, що працівникам має бути гарантовано право висловлювати свою стурбованість щодо інвазивного та експлуатаційного ШІ. Технічні працівники також повинні мати право знати, чи використовуються їхні зусилля для створення шкідливої ​​або неетичної роботи.

AI Now також запропонував законодавцям вжити заходів щодо вимоги інформованої згоди на використання будь-яких даних, отриманих від ШІ, пов’язаного зі здоров’ям. Окрім цього, було рекомендовано більш серйозно ставитися до конфіденційності даних і що штати повинні працювати над розробкою законів про конфіденційність біометричних даних, які охоплюють як приватні, так і державні організації.

Нарешті, інститут порадив індустрії штучного інтелекту почати мислити та діяти більш глобально, намагаючись усунути більш масштабні політичні, соціальні та екологічні наслідки штучного інтелекту. Було рекомендовано докласти значних зусиль для врахування впливу штучного інтелекту на географічне переміщення та клімат, а також щоб уряди оприлюднили інформацію про вплив індустрії штучного інтелекту на клімат.