Connect with us

Штучний інтелект

Представляємо нові рівні прозорості за допомогою ШІ – Thought Leaders

mm

Автор: Балакрішна Д Р, старший віце-президент, керівник сервісного напрямку – енергетика, комунікації, сервіси та послуги з ШІ та автоматизації в Infosys. 9 січня 2020 року Всесвітня організація охорони здоров’я повідомила громадськості про спалах коронавірусу в Китаї. За три дні до цього про це повідомили Центри з контролю та профілактики захворювань США. Але канадська платформа моніторингу здоров’я випередила обидві організації, надіславши повідомлення про спалах своїм клієнтам ще 31 грудня 2019 року! Ця платформа, BlueDot, використовує алгоритми на основі штучного інтелекту, які аналізують новинні звіти іноземними мовами, мережі з відстеження хвороб тварин і рослин та офіційні заяви, щоб заздалегідь попередити своїх клієнтів про необхідність уникати небезпечних зон, таких як Ухань. За останні кілька років штучний інтелект став ключовим джерелом трансформації, змін та конкурентної переваги в сучасній швидкозмінюваній економіці. Від відстеження епідемій до оборони, охорони здоров’я, автономних транспортних засобів і всього іншого, ШІ набуває широкого впровадження. PwC прогнозує, що за нинішнього темпу зростання ШІ може внести до 15,7 трлн доларів у світову економіку до 2030 року. Проте, незважаючи на всі надії, які дає ШІ, він все ще породжує питання без відповідей щодо прозорості та надійності. Необхідність розуміти, прогнозувати та довіряти здатності систем ШІ приймати рішення є важливою, особливо в сферах, критичних для життя, смерті та особистого благополуччя.   У невідоме Коли вперше були представлені системи автоматизованого міркування для підтримки прийняття рішень, вони покладалися на правила, створені вручну. Хоча це полегшувало інтерпретацію та зміну їхньої поведінки, вони не були масштабованими. Моделі на основі машинного навчання з’явилися, щоб задовольнити останню потребу; вони не вимагали втручання людини та могли навчатися на даних – чим більше, тим краще. Хоча моделі глибокого навчання є неперевершеними за своєю моделювальною здатністю та сферою застосування, той факт, що ці моделі здебільшого є «чорними скриньками», порушує тривожні питання щодо їхньої достовірності, надійності та упереджень у контексті їхнього широкого використання. Наразі не існує прямого механізму для відстеження міркувань, які неявно використовуються моделями глибокого навчання. Для моделей машинного навчання, що мають природу «чорної скриньки», основним видом пояснюваності є так звана постфактумна пояснюваність, що означає, що пояснення виводяться з природи та властивостей результатів, згенерованих моделлю. Ранні спроби вилучити правила з нейронних мереж (як раніше називали глибоке навчання) зараз не продовжуються, оскільки мережі стали занадто великими та різноманітними для ефективного вилучення правил. Отже, існує нагальна потреба впровадити інтерпретованість та прозорість у саму основу моделювання ШІ.   Кінець ночі, початок світла Ця проблема створила потребу в прозорості машинного навчання, що призвело до розвитку пояснюваного штучного інтелекту, або XAI. Він прагне вирішити основні проблеми, які перешкоджають нашій здатності повністю довіряти прийняттю рішень ШІ, включаючи упередженість та непрозорість. Ця нова галузь ШІ забезпечує підзвітність, гарантуючи, що ШІ приносить користь суспільству з кращими результатами для всіх залучених сторін. XAI буде мати вирішальне значення для боротьби з упередженістю, властивою системам та алгоритмам ШІ, які запрограмовані людьми, чиї досвід та бекграунд ненавмисно призводять до розробки систем ШІ, що демонструють упередженість. Небажані упередження, такі як дискримінація за національністю чи етнічною приналежністю, можуть проникнути в систему, оскільки вона додає їй цінності на основі реальних даних. Наприклад, може виявитися, що типові неплатники кредитів походять з певного етнічного середовища, однак впровадження будь-якої обмежувальної політики на основі цього може суперечити справедливим практикам. Помилкові дані – ще одна причина упередженості. Наприклад, якщо певний сканер розпізнавання обличчя неточний у 5% випадків через колір шкіри людини або освітлення обличчя, це може призвести до упередженості. Нарешті, якщо ваші вибіркові дані не є справжнім представленням усієї популяції, упередженість неминуча. XAI прагне пояснити, як приймаються рішення «чорної скриньки» систем ШІ. Він перевіряє та намагається зрозуміти кроки та моделі, залучені до прийняття рішень. Він дає відповіді на важливі питання, такі як: Чому система ШІ зробила конкретний прогноз або рішення? Чому система ШІ не зробила щось інше? Коли система ШІ досягла успіху чи зазнала невдачі? Коли системи ШІ дають достатньо впевненості в рішенні, щоб можна було йому довіряти, і як система ШІ може виправляти помилки?   Пояснюваний, передбачуваний та відстежуваний ШІ Один із способів досягти пояснюваності в системах ШІ – використовувати алгоритми машинного навчання, які є внутрішньо пояснюваними. Наприклад, простіші форми машинного навчання, такі як дерева рішень, байєсівські класифікатори та інші алгоритми, які мають певний ступінь відстежуваності та прозорості в прийнятті рішень. Вони можуть забезпечити необхідну видимість для критичних систем ШІ без надто великих втрат продуктивності або точності. Помітивши потребу забезпечити пояснюваність для глибокого навчання та інших більш складних алгоритмічних підходів, Агентство перспективних дослідницьких проектів Міністерства оборони США (DARPA) докладає зусиль, щоб створити пояснювані рішення ШІ через низку фінансованих дослідницьких ініціатив. DARPA описує пояснюваність ШІ у трьох частинах, які включають: точність прогнозування, що означає, що моделі пояснюватимуть, як було досягнуто висновків, для покращення майбутнього прийняття рішень; розуміння рішень та довіру з боку користувачів-людей та операторів, а також перевірку та відстежуваність дій, здійснених системами ШІ. Відстежуваність надасть людям можливість входити в цикли прийняття рішень ШІ та мати змогу зупиняти або контролювати його завдання, коли виникає потреба. Очікується, що система ШІ не лише виконуватиме певне завдання або нав’язуватиме рішення, але й надаватиме прозорий звіт про те, чому вона прийняла конкретні рішення, з підтримуючою аргументацією. Стандартизація алгоритмів або навіть підходів XAI наразі неможлива, але, безумовно, можна стандартизувати рівні прозорості / рівні пояснюваності. Організації зі стандартизації намагаються досягти спільного, стандартного розуміння цих рівнів прозорості, щоб полегшити комунікацію між кінцевими користувачами та постачальниками технологій. Оскільки уряди, установи, підприємства та широка громадськість починають покладатися на системи на основі ШІ, завоювання їхньої довіри через більш чітку прозорість процесу прийняття рішень стане фундаментальним. Запуск першої глобальної конференції, присвяченої виключно XAI, Міжнародної спільної конференції зі штучного інтелекту: Workshop on Explainable Artificial Intelligence, є подальшим доказом того, що ера XAI настала.

Balakrishna, popularly known as Bali D.R., is the Head of AI and Automation at Infosys where he drives both internal automation for Infosys and provides independent automation services leveraging products for clients. Bali has been with Infosys for more than 25 years and has played sales, program management and delivery roles across different geographies and industry verticals.