Лідери думок
Як промисловість готується до прискореного впровадження штучного інтелекту, з’являється нова увага до етики та відповідальності

Від: Пандуранг Камат, технічний директор Persistent Systems
Штучний інтелект (AI) у своєму ядрі є машинним навчанням (ML), процесом, за допомогою якого машини вчаться покращувати свою продуктивність на основі даних. Загальна кількість існуючих даних сьогодні означає, що AI мав родючий ґрунт для розвитку, прискорюючись за останні кілька років. І обіцянка AI змусила технологів і керівників у різних галузях думати творчо про його різні застосування.
Від промислової революції й далі, будь-який період швидкого технологічного прогресу відзначається рівними частинами ентузіазму та тривоги. Консорціум Всесвітньої павутини (W3C), група, яка створює стандарти галузі веб-розробників, зазначає, що “зростає усвідомлення того, що застосування машинного навчання супроводжується ризиками та може привести до шкоди” – у таких областях, як: упередженість, конфіденційність, безпека, стійкість та загальна підзвітність.
“Є явний попит на етичний підхід до ML, який видно з активізму громадянського суспільства, появи ~100 наборів етичних принципів AI у світі та урядових кроків щодо регулювання AI по всьому світу”, – зазначила група. “Якщо технології не відповідають цінностям суспільств, у яких вони діють, вони ризикують підірвати їх”.
Виберіть мудро
На поверхні важко сперечатися з тим, що підвищена швидкість та продуктивність погані для бізнесу. Але для деяких галузей багато чого залежить від процесу прийняття рішень, який деякі вважають, що не слід залишати алгоритму. Подивившись на кілька найбільших галузей, ми можемо побачити, наскільки ми вразливі до помилок машини та чому відповідальний AI так важливий.
Банківська справа, фінансові послуги та страхування (BFSI)
Світовий економічний форум (WEF) та Deloitte вивчили процес впровадження AI у компанії BFSI, знайшовши, що, “хоча AI може допомогти створити корисні бізнес-інсайти з величезної кількості інформації”, “чужість AI” буде джерелом постійної серйозної загрози.
“AI розуміє речі по-іншому”, – говорить звіт. “Системи AI не слідують людським конструкціям логіки та поводяться дуже по-різному від людських акторів, виконуючи одну й ту ж задачу. Крім того, самонавчання систем AI дозволяє їм еволюціонувати без людського втручання, що може привести до несподіваних результатів на основі невідомих змінних”.
Прихильники відповідального AI стверджують, що машинне навчання представляє серйозні проблеми у таких речах, як автоматична оцінка ризику, кредит та рішення про надання кредитів, які історично упереджені щодо певних демографічних груп. Недавні дослідження показали, що кредитори, які використовують двигуни прийняття рішень на основі AI, були більш схильні відмовляти у видачі іпотечних кредитів людям кольору – у деяких випадках 80% чорношкірих заявників мали більшу ймовірність бути відхилені.
Охорона здоров’я
Кілька років тому Журнал американської медичної асоціації (JAMA) розглянув впровадження AI у сфері охорони здоров’я, знайшовши, що існують численні виклики, включаючи “нереальні очікування, упередженість та нерепрезентативність даних, недостатню пріоритезацію рівності та інклюзивності, ризик посилення нерівностей у сфері охорони здоров’я, низький рівень довіри та невизначені нормативні середовища”.
Не зовсім переконлива рекомендація, але існує вищий стандарт для відповідального AI у сфері охорони здоров’я, особливо враховуючи її буквальне життя чи смерть потенціал. У цілому медичні працівники оптимістично, але обережно ставляться до майбутнього AI, зосереджуючи свої зусилля на освіті інших практиків щодо його використання в клінічному середовищі та створенні керівних принципів щодо того, як рухатися вперед відповідально, щоб це приносило користь усім пацієнтам.
ЗМІ
PwC оцінює, що AI забезпечить 15,7 трильйонів доларів глобального економічного зростання до 2030 року, але згідно з Salesforce менше половини (48%) клієнтів довіряють компаніям використовувати AI етично, а 65% стурбовані неетичним використанням AI. На перетині прибутку та довіри існують медіакомпанії – ранні приймачі з величезним охопленням та впливом. І існують побоювання щодо того факту, що AI не є “встановіть і забудьте” застосуванням, тобто для медіакомпаній їхня відповідальність полягає не лише у виробництві контенту, але й у його постійному моніторингу після розгортання.
Як реклама подається та персоналізується? Як контент досягає певної аудиторії, а що є повідомленням? Хто вчить AI “як” навчатися? І як можна націлитися на конкретних споживачів, одночасно поважаючи конфіденційність? Це лише деякі з питань, які турбують медіакомпанії, коли вони балансують етику з здобуттям конкурентної переваги.
Відповідь на відповідальність
Прогрес у розробці відповідального AI є очевидним щодня – законодавці розробляють нормативні акти, споживачі вимагають більшої прозорості, а багато компаній створили спеціальні відділи, відповідальні за забезпечення того, що їхній AI використовується відповідально. Компаніям потрібна чітко визначена структура відповідального AI, яка охоплює етику, прозорість, підзвітність, справедливість, конфіденційність та безпеку. Коли тривають дебати та реформи, недавнє спільне дослідження MIT Sloan Management Review та Boston Consulting Group пропонує деякі прості загальні рекомендації – вони написали, “Якщо ви хочете бути відповідальним лідером AI, зосередьтеся на тому, щоб бути відповідальною компанією”.












