Етика
Принципи етики штучного інтелекту проходять мета-аналіз, підкреслюються права людини

У 2019 році було більше уваги до етики штучного інтелекту, ніж будь-коли раніше. Однак багато з цих обговорень здавалися нечіткими, без кодифікованого підходу. Натомість різні компанії створили свої власні рамки та політики щодо етики штучного інтелекту. Дослідження консенсусу щодо питань етики штучного інтелекту важливо, оскільки воно допомагає політикам створювати та коригувати політики, а також інформує роботу дослідників і вчених. Крім того, компанії штучного інтелекту повинні знати, де знаходяться етичні межі, якщо вони сподіваються уникнути неетичної реалізації штучного інтелекту. Для створення кращої картини тенденцій у сфері етики штучного інтелекту, як повідомляє VentureBeats, Центр Беркмана Клейна Гарвардського університету провів мета-аналіз різних існуючих принципів та рамок етики штучного інтелекту.
Відповідно до авторів аналізу, дослідники хотіли порівняти принципи поруч, щоб знайти збіг і розбіжності. Джессіка Фйельд, помічник директора Кібер-клініки Гарвардської школи права, пояснила, що команда дослідників хотіла “відкрити приховану імпульс у розбитому, глобальному обговоренні майбутнього штучного інтелекту, що призвело до цієї білої книги та пов’язаної візуалізації даних”.
Під час аналізу команда вивчила 36 різних документів принципів штучного інтелекту, що походили з усього світу та мали різноманітні організаційні типи. Результати дослідження показали, що існувало вісім тем, які постійно з’являлися у багатьох документах.
Конфіденційність та підзвітність були двома найбільш поширеними етичними темами, а також безпека/безпека штучного інтелекту. Прозорість/висвітлення також була часто цитованою метою, з багатьма спробами зробити алгоритми більш зрозумілими протягом 2019 року. Справедливість/відсутність дискримінації була ще однією етичною фокусною точкою, що відображала зростаючі побоювання щодо упередженості даних. Забезпечення контролю людини над технологіями, а не передача рішень штучному інтелекту, було сильно згадано. Професійна відповідальність була сьомою поширеною темою, виявленою дослідниками. Нарешті, дослідники знайшли постійні згадки про просування людських цінностей у документації з етики штучного інтелекту, яку вони вивчали.
Команда дослідників надала якісний та кількісний аналіз того, як ці теми проявлялися у документації з етики штучного інтелекту у своїй роботі та у супровідній карті. Карта показує, де кожна з тем була згадана.
Команда дослідників відзначила, що багато обговорень щодо етики штучного інтелекту оберталися навколо побоювання щодо людських цінностей та прав. Як зазначено у дослідницькій роботі:
“64% наших документів містили посилання на права людини, і п’ять документів [14%] прийняли міжнародні права людини як основу для своєї загальної діяльності”.
Посилання на права людини та цінності були більш поширені у документах, створених приватними секторами та цивільними суспільствами. Це вказує на те, що компанії штучного інтелекту приватного сектора не займаються лише прибутком, а й займаються створенням штучного інтелекту етичним способом. Тим часом, державні агентства здаються менш стурбованими або обізнаними щодо етики штучного інтелекту в цілому, з менше ніж половини документів, пов’язаних зі штучним інтелектом, походять від державних агентств, що займаються етикою штучного інтелекту.
Дослідники також відзначили, що якщо документи, які вони вивчали, були більш недавніми, вони були більш схильні до розгляду всіх восьми найбільш поширених тем, а не лише декількох. Це свідчить про те, що ідеї щодо того, що становить етичне використання штучного інтелекту, починають консолідуватися серед тих, хто веде обговорення щодо етики штучного інтелекту. Нарешті, дослідники заявляють, що успіх цих принципів у керівництві розробкою штучного інтелекту залежатиме від того, наскільки добре вони інтегровані в спільноту розробників штучного інтелекту в цілому. Дослідники заявляють у роботі:
“Крім того, принципи є початковою точкою для управління, а не кінцевою. Самі по собі принципи є малоймовірними, щоб бути більш ніж ледь переконливими. Їх вплив, ймовірно, залежатиме від того, як вони будуть інтегровані в більшу екосистему управління, включаючи, наприклад, відповідні політики (наприклад, національні плани штучного інтелекту), закони, правила, але також професійні практики та щоденні звички”.












