заглушки Що таке відповідальний ШІ? Принципи, виклики та переваги - Unite.AI
Зв'язатися з нами
Майстер-клас ШІ:

AI 101

Що таке відповідальний ШІ? Принципи, виклики та переваги

mm
оновлений on
Людина тримає в руках глобус, стоячи в полях.

Відповідальний ШІ (RAI) стосується проектування та розгортання систем штучного інтелекту, які є прозорими, неупередженими, підзвітними та відповідають етичним принципам. Оскільки системи штучного інтелекту стають більш надійними та поширеними, важливо забезпечити їх відповідальну розробку та дотримання правил безпеки та етики.

Охорона здоров'я, транспорт, управління мережею та спостереження критичні для безпеки додатки ШІ де збій системи може мати серйозні наслідки. Великі фірми усвідомлюють, що RAI має важливе значення для пом’якшення технологічних ризиків. Проте згідно зі звітом MIT Sloan/BCG, який включав 1093 респонденти, 54% компаній не мали досвіду та таланту у сфері відповідального ШІ.

Хоча лідери думок та організації розробили принципи відповідального штучного інтелекту, забезпечення відповідального розвитку систем штучного інтелекту все ще викликає труднощі. Давайте розглянемо цю ідею докладніше:

5 Принципи відповідального ШІ

1. Справедливість

Технологи повинні розробити процедури так, щоб системи штучного інтелекту ставилися до всіх людей і груп справедливо і без упереджень. Таким чином, справедливість є головною вимогою в програмах прийняття рішень з високим рівнем ризику.

справедливість визначається як:

«Дослідження впливу на різні демографічні групи та вибір одного з кількох математичних визначень групової справедливості, яке адекватно задовольнить бажаний набір правових, культурних та етичних вимог».

2 Підзвітність

Підзвітність означає, що особи та організації, які розробляють і розгортають системи ШІ, повинні нести відповідальність за свої рішення та дії. Команда, яка розгортає системи штучного інтелекту, повинна переконатися, що їхня система штучного інтелекту є прозорою, доступною для інтерпретації, аудиту та не завдає шкоди суспільству.

Підзвітність включає сім компоненти:

  1. Контекст (мета, для якої потрібна підзвітність)
  2. Асортимент (суб'єкт відповідальності)
  3. Агент (хто несе відповідальність?)
  4. Форум (кому має звітувати відповідальна сторона)
  5. Стандарти (критерії підзвітності)
  6. Процес (метод звітності)
  7. Наслідки (наслідки відповідальності)

3. Прозорість

Прозорість означає, що причина прийняття рішень у системах ШІ є чіткою та зрозумілою. Прозорі системи ШІ можна пояснити.

За оцінками Оцінювальний список для надійного штучного інтелекту (ALTAI), прозорість має три ключові елементи:

  1. Відстеження (дані, етапи попередньої обробки та модель доступні)
  2. Зрозумілість (зрозуміла причина прийняття рішень/прогнозування)
  3. Відкрита комунікація (щодо обмеження системи ШІ)

4 Конфіденційність

Конфіденційність є одним із головних принципів відповідального ШІ. Це стосується захисту особистої інформації. Цей принцип гарантує, що особиста інформація людей збирається та обробляється за згодою та зберігається подалі від рук зловмисників.

Як засвідчило нещодавно, був випадок із компанією Clearview, яка виготовляє моделі розпізнавання облич для правоохоронних органів та університетів. Наглядові особи Великобританії подали до суду на Clearview AI на 7.5 мільйонів фунтів стерлінгів за збір зображень жителів Великої Британії з соціальних мереж без згоди для створення бази даних із 20 мільярдів зображень.

5. Безпека

Безпека означає гарантію того, що системи штучного інтелекту безпечні та не загрожують суспільству. Прикладом загрози безпеці ШІ є змагальні атаки. Ці шкідливі атаки змушують моделі машинного навчання приймати неправильні рішення. Захист систем ШІ від кібератак є обов’язковим для відповідального ШІ.

4 основні виклики та ризики відповідального ШІ

1. Упередженість

Людські упередження, пов’язані з віком, статтю, національністю та расою, можуть вплинути на збір даних, потенційно призводячи до упереджених моделей ШІ. Дослідження Міністерства торгівлі США виявили, що штучний інтелект розпізнавання облич неправильно ідентифікує кольорових людей. Отже, використання штучного інтелекту для розпізнавання облич у правоохоронних органах може призвести до незаконних арештів. Крім того, створювати чесні моделі ШІ складно, оскільки вони існують 21 різні параметри для їх визначення. Отже, є компроміс; задоволення одного справедливого параметра ШІ означає пожертвування іншим.

2. Інтерпретованість

Можливість інтерпретації є критичною проблемою для розробки відповідального ШІ. Це стосується розуміння того, як модель машинного навчання досягла певного висновку.

Глибоким нейронним мережам бракує інтерпретації, оскільки вони працюють як чорні скриньки з кількома шарами прихованих нейронів, що ускладнює розуміння процесу прийняття рішень. Це може бути проблемою під час прийняття важливих рішень, таких як охорона здоров’я, фінанси тощо.

Крім того, формалізація інтерпретації в моделях ML є складною, тому що це так суб'єктивні та  доменний.

3. Управління

Управління відноситься до набору правил, політики та процедур, які контролюють розробку та розгортання систем ШІ. Нещодавно відбувся значний прогрес у дискурсі управління штучним інтелектом, коли організації представили рамки та етичні принципи.

Інструкції з етики для надійний AI від ЄСАвстралійська структура етики ШІ та  Принципи АІ ОЕСР є прикладами структур управління ШІ.

Але швидкий розвиток ШІ за останні роки може випередити ці рамки управління ШІ. Для цього потрібна структура, яка б оцінювала справедливість, інтерпретативність і етику систем ШІ.

4. Регулювання

Оскільки системи штучного інтелекту стають все більш поширеними, потрібне регулювання для врахування етичних і суспільних цінностей. Розробка регулювання, яке не пригнічує інновації штучного інтелекту, є критичним викликом для відповідального штучного інтелекту.

Навіть з Загальним регламентом захисту даних (GDPR), Каліфорнійським законом про конфіденційність споживачів (CCPA) і Законом про захист персональної інформації (PIPL) як регуляторними органами, дослідники ШІ виявили, що 97% веб-сайтів ЄС не відповідають вимогам правової бази GDPR.

Крім того, законодавці стикаються з a значний виклик у досягненні консенсусу щодо визначення штучного інтелекту, який включає як класичні системи ШІ, так і найновіші програми ШІ.

3 основні переваги відповідального ШІ

1. Зменшене упередження

Відповідальний ШІ зменшує упередженість у процесах прийняття рішень, зміцнюючи довіру до систем ШІ. Зменшення упередженості в системах штучного інтелекту може забезпечити справедливу та справедливу систему охорони здоров’я та зменшує упередженість у системах штучного інтелекту фінансові послуги і т.п.

2. Підвищена прозорість

Відповідальний штучний інтелект створює прозорі програми штучного інтелекту, які створюють довіру до систем штучного інтелекту. Прозорі системи ШІ зменшити ризик помилок і неправильного використання. Підвищена прозорість полегшує перевірку систем ШІ, завойовує довіру зацікавлених сторін і може призвести до підзвітних систем ШІ.

3. Поліпшення безпеки

Захищені додатки штучного інтелекту забезпечують конфіденційність даних, створюють надійні та нешкідливі результати та захищені від кібератак.

Технічні гіганти люблять Microsoft та  Google, які знаходяться в авангарді розробки систем ШІ, розробили принципи відповідального ШІ. Відповідальний ШІ гарантує, що інновації в ШІ не завдадуть шкоди людям і суспільству.

Лідери думок, дослідники, організації та юридичні органи повинні постійно переглядати відповідальну літературу щодо ШІ, щоб забезпечити безпечне майбутнє для інновацій ШІ.

Для отримання додаткової інформації, пов’язаної зі ШІ, відвідайте unite.ai.