Лідери думок
Оскільки галузі готуються до прискореного впровадження штучного інтелекту, новий акцент на етиці та відповідальності

By: Пандуранг Камат, технічний директор компанії Стійкі системи
В основі лежить штучний інтелект (ШІ). навчання за допомогою машини (ML), процес, за допомогою якого машини навчаються покращувати продуктивність на основі вхідних даних. Величезна кількість наявних сьогодні даних означає, що штучний інтелект мав благодатний ґрунт для процвітання, прискорюється шаленою швидкістю лише за останні кілька років. І обіцянка штучного інтелекту змусила технологів і керівників у далекосяжних галузях творчо подумати про його різноманітні застосування.
Починаючи з промислової революції, будь-який період швидкого технічного прогресу позначається як ентузіазмом, так і трепетом. The World Wide Web Consortium (W3C), група, яка розробляє галузеві стандарти для веб-розробників, зазначає, що «зростає усвідомлення того, що застосування машинного навчання створює ризики та може завдати шкоди», зокрема в таких сферах, як: упередженість, конфіденційність, безпека, стабільність та загальна підзвітність.
«Існує явний попит на етичний підхід до відмивання коштів, який можна побачити через активність громадянського суспільства, появу ~100 наборів етичних принципів штучного інтелекту в усьому світі, а уряди в усьому світі намагаються регулювати штучний інтелект», – написала група. «Якщо технології не узгоджуються з цінностями суспільства, в якому вони працюють, вони ризикують підірвати їх».
Вибирайте розумно
На перший погляд, важко стверджувати, що підвищена швидкість і продуктивність шкідливі для бізнесу. Але для деяких галузей процес прийняття рішень поставлено на карту, і дехто стверджує, що не слід залишати його на розсуд алгоритму. Розглядаючи кілька найбільших галузей, ми можемо зрозуміти, наскільки ми вразливі до машинних помилок і чому відповідальний штучний інтелект є настільки важливим.
Банківська справа, фінансові послуги та страхування (BFSI)
Всесвітній економічний форум (WEF) і Deloitte дослідили процес розгортання штучного інтелекту в компаніях BFSI, виявивши, що «хоча штучний інтелект може допомогти створити корисну бізнес-ідею на основі величезної кількості інформації», «іноземність ШІ» буде джерелом постійний серйозний ризик.
«ШІ міркує нелюдськими способами», — йдеться у звіті. «Системи штучного інтелекту не слідують логіці людини і поводяться зовсім інакше, ніж люди, які виконують ті самі завдання. Крім того, самонавчання систем ШІ дозволяє їм розвиватися без втручання людини, що може призвести до несподіваних результатів на основі невідомих змінних».
Прихильники відповідального штучного інтелекту стверджують, що машинне навчання створює серйозні проблеми в таких речах, як автоматичне підрахунок ризиків, рішення про кредити та позики, які історично завдають шкоди певним демографічним показникам. Нещодавні дослідження показали, що кредитори, які використовують механізми прийняття рішень на основі штучного інтелекту, частіше відмовляли кольоровим людям у кредитах на житло – у деяких випадках, 80% чорношкірих заявників мають більше шансів отримати відмову.
Охорона здоров'я
Кілька років тому Журнал Американської медичної асоціації (JAMA) подивився на впровадження штучного інтелекту в охороні здоров’я, виявивши, що викликів багато, включно з «нереалістичними очікуваннями, упередженими та нерепрезентативними даними, неналежним визначенням пріоритетів справедливості та інклюзії, ризиком загострення диспропорцій у сфері охорони здоров’я, низьким рівнем довіри та невизначеністю нормативне середовище».
Це не зовсім гучне схвалення, але для відповідального штучного інтелекту в охороні здоров’я є вища планка, особливо враховуючи його потенціал, який може призвести до життя чи смерті. Загалом медичні працівники налаштовані оптимістично, але насторожено дивляться на майбутнє штучного інтелекту, вирішуючи зосередити свої зусилля на навчанні інших практикуючих лікарів щодо його використання в клінічних умовах і створенні вказівок щодо того, як відповідально рухатися вперед у спосіб, який принесе користь усім пацієнтам.
Медіа
За оцінками PwC, штучний інтелект забезпечить глобальне економічне зростання на 15.7 трильйона доларів до 2030 року., Але за даними Salesforce менше половини (48%) клієнтів довіряють компаніям у етичному використанні ШІ, а 65% стурбовані неетичним використанням ШІ. На з’єднанні прибутків і довіри знаходяться медіакомпанії, які першими прийняли інформацію з величезним охопленням і впливом. І є занепокоєння з приводу того факту, що штучний інтелект не є додатком «встановив і забув», тобто для медіа-компаній їхня відповідальність полягає не лише у створенні контенту, а й у його постійному моніторингу після розгортання.
Як показуються та персоналізуються оголошення? Як контент досягає певної аудиторії та яке це повідомлення? Хто навчає ШІ «як» навчатися? І як ви можете орієнтуватися на конкретних споживачів, водночас поважаючи конфіденційність? Це лише деякі з питань, які хвилюють медіакомпанії, оскільки вони балансують між етикою та досягненням конкурентної переваги.
Відповідь на відповідальність
Прогрес у розробці відповідального штучного інтелекту очевидний щодня – законодавці розробляють нормативні акти, споживачі вимагають більшої прозорості, а багато компаній створили спеціальні відділи, яким доручено забезпечити належне використання їх штучного інтелекту. Компанії потребують a чітко визначена структура відповідального ШІ що охоплює етику, прозорість, підзвітність, чесність, конфіденційність і безпеку. Оскільки дискусії та реформи тривають, а недавнє спільне дослідження MIT Sloan Management Review і Boston Consulting Group містить прості загальні вказівки – вони написали: «Якщо ви хочете бути відповідальним лідером ШІ, зосередьтеся на тому, щоб бути відповідальною компанією».