Штучний інтелект
Представляємо нові рівні прозорості з AI – лідери думок

Балакрішна Д Р, старший віце-президент, керівник напрямку сервісних пропозицій – Енергетика, Комунікації, Сервіси та сервіси штучного інтелекту та автоматизації, в Infosys.
9 січня 2020 року Всесвітня організація охорони здоров’я повідомила громадськість про спалах коронавірусу в Китаї. За три дні до цього Центри з контролю та профілактики захворювань США повідомили про це. Але канадська платформа моніторингу здоров’я BlueDot випередила їх обидва, повідомивши про спалах своїм клієнтам вже 31 грудня 2019 року! Платформа використовує алгоритми, керовані штучним інтелектом, які аналізують іноземні новинні повідомлення, мережі захворювань тварин і рослин, а також офіційні заяви, щоб надавати клієнтам попередження про небезпечні зони, такі як Ухань.
За останні кілька років штучний інтелект став ключевим джерелом трансформації, порушення та конкурентної переваги в сучасній швидкозмінній економіці. Від відстеження епідемій до оборони, охорони здоров’я, автономних транспортних засобів та всього, що між ними, штучний інтелект набуває широкого поширення. PwC прогнозує, що штучний інтелект може додати до глобальної економіки до 15,7 трильйонів доларів у 2030 році при поточному темпі зростання.
Однак, незважаючи на всі надії, які приносить штучний інтелект, він все ще ставить незвідані питання щодо прозорості та довіри. Потреба зрозуміти, передбачити та довіритися здатності штучних інтелектних систем приймати рішення є важливою, особливо в областях, що критичні для життя, смерті та особистого добробуту.
У невідомість
Коли автоматизовані системи прийняття рішень були вперше введені для підтримки прийняття рішень, вони базувалися на ручних правилах. Хоча це зробило їх легкими для інтерпретації, а також для зміни їх поведінки, вони не були масштабними. Моделі, засновані на машинному навчанні, з’явилися для задоволення останньої потреби; вони не потребували втручання людини та могли навчатися з даних – чим більше, тим краще. Хоча моделі глибокого навчання не мають рівних у своїй моделюванні здатності та області застосування, те, що ці моделі є чорними скриньками в більшості випадків, ставить тривожні питання щодо їхньої достовірності, довіри та упереджень у контексті їхнього широкого використання.
Наразі немає прямого механізму для відстеження розуміння, яке використовується глибокими моделями навчання. З моделями машинного навчання, які мають чорну скриньку, основним видом пояснюваності є пост-фактумна пояснюваність, тобто пояснення виводяться з природи та властивостей виведених моделлю результатів. Ранні спроби витягнути правила з нейронних мереж (як глибоке навчання раніше було відоме) зараз не проводяться, оскільки мережі стали занадто великими та різноманітними для тривалих витягувань правил. Тому існує термінова потреба ввезти інтерпретованість та прозорість у саму тканину моделювання штучного інтелекту.
Вихід ночі, вступ світла
Ця проблема створила потребу у прозорості машинного навчання, яка призвела до зростання пояснюваного штучного інтелекту, або XAI. Він намагається вирішити основні питання, які заважають нам повністю довіритися прийняттю рішень штучним інтелектом — включаючи упередженість та прозорість. Ця нова галузь штучного інтелекту приносить підзвітність, щоб забезпечити, що штучний інтелект приносить користь суспільству з кращими результатами для всіх учасників.
XAI буде критично важливим для боротьби з упередженістю, властивою системам та алгоритмам штучного інтелекту, які програмуються людьми, чиї походження та досвід ненавмисно призводять до розробки систем штучного інтелекту, які проявляють упередженість. Небажані упередженості, такі як дискримінація проти певної національності чи етнічної групи, можуть з’явитися, оскільки система додає значення до них на основі реальних даних. Наприклад, може бути виявлено, що типові боржники за кредитами походять з певного етнічного походження, однак реалізація будь-якої обмежувальної політики на основі цього може бути проти справедливих практик. Помилкові дані також є причиною упередженості. Наприклад, якщо певний сканер розпізнавання облич є неточним 5% часу через колір обличчя чи світло, що падає на обличчя, це може привести до упередженості. Останнім чином, якщо ваш зразковий набір даних не є справжнім представленням всього населення, упередженість є неминучою.
XAI спрямований на вирішення того, як чорні скриньки рішень систем штучного інтелекту приймаються. Він оглядає та намагається зрозуміти кроки та моделі, залучені до прийняття рішень. Він відповідає на такі важливі питання: Чому система штучного інтелекту зробила певний прогноз чи рішення? Чому система штучного інтелекту не зробила чогось іншого? Коли система штучного інтелекту вдалася чи зазнала невдачі? Коли системи штучного інтелекту дають достатню впевненість у рішенні, щоб вам можна було довіритися, і як система штучного інтелекту може виправити помилки?
Пояснюваний, передбачуваний та відстежуваний штучний інтелект
Одним із способів досягнення пояснюваності в системах штучного інтелекту є використання алгоритмів машинного навчання, які є внутрішньо пояснюваними. Наприклад, простіші форми машинного навчання, такі як дерева рішень, баєсівські класифікатори та інші алгоритми, які мають певні рівні відстежуваності та прозорості у прийнятті рішень. Вони можуть забезпечити необхідну видимість для критичних систем штучного інтелекту без суттєвої втрати продуктивності чи точності.
Відзначаючи потребу у забезпеченні пояснюваності для глибокого навчання та інших більш складних алгоритмічних підходів, Управління перспективних дослідницьких проектів Міністерства оборони США (DARPA) проводить зусилля для створення пояснюваних рішень штучного інтелекту через ряд фінансових дослідницьких ініціатив. DARPA описує пояснюванність штучного інтелекту у трьох частинах, які включають: точність прогнозування, що означає, що моделі пояснюватимуть, як висновки досягаються для поліпшення прийняття рішень у майбутньому; розуміння рішень та довіра з боку людських користувачів та операторів, а також огляд та відстежування дій, здійснених системами штучного інтелекту.
Відстежуваність дозволить людям входити у цикли прийняття рішень штучного інтелекту та мати можливість зупинити або контролювати його завдання, коли це потрібно. Система штучного інтелекту не тільки очікується виконувати певне завдання чи приймати рішення, але також надавати прозорий звіт про те, чому вона прийняла певні рішення з підтримуючими підставами.
Стандартизація алгоритмів або навіть підходів XAI зараз не є можливою, але можливо стандартизувати рівні прозорості / рівні пояснюваності. Організації зі стандартизації намагаються досягнути спільних стандартних розумінь цих рівнів прозорості для полегшення спілкування між кінцевими користувачами та постачальниками технологій.
Когда уряди, установи, підприємства та загальна громадськість стають все більш залежними від систем, заснованих на штучному інтелекті, здобуття їхньої довіри через яснішу прозорість процесу прийняття рішень буде фундаментальним. Запуск першої глобальної конференції, присвяченої виключно XAI, Міжнародної спільної конференції зі штучного інтелекту: Робоча група з пояснюваного штучного інтелекту, є подальшим доказом того, що епоха XAI настав.












