Зв'язатися з нами

Як пояснюваний ШІ підвищує надійність і надійність

Лідери думок

Як пояснюваний ШІ підвищує надійність і надійність

mm

Оскільки штучний інтелект (ШІ) демократизується на підприємствах, він повільно вбудовується в тканину нашого існування. Важливим аспектом цієї демократизації є те, що кінцеві користувачі повинні мати можливість повністю розуміти процес і механізми, які використовує штучний інтелект, щоб дійти висновку, або як він працює для досягнення бажаних результатів. Як люди, ми маємо глибоко вкорінену потребу розкрити «чому» і «як» будь-якого явища, що прискорило наш технологічний прогрес. У контексті штучного інтелекту це розуміння називається «пояснюваністю».

Чому пояснення є вимогою часу?

Найчастіше ми підходимо до штучного інтелекту як до «чорної скриньки», де ми лише знаємо про вхідні та вихідні дані, але десь ми втрачаємо використані процеси. Ця проблема ускладнюється тим фактом, що алгоритми, на яких працюють найпопулярніші форми ШІ, такі як складні системи прогнозування на основі глибокого навчання та обробка природної мови (NLP), є дуже абстрактними навіть для найдосвідченіших практиків.

Довіра та прозорість: Щоб користувачі довіряли передбаченням ШІ, він повинен мати певний рівень пояснюваності. Наприклад, якщо практикуючий лікар повинен рекомендувати лікування на основі прогнозів штучного інтелекту, він/вона має бути впевненим у прогнозі. Банк повинен мати повну впевненість у прийнятті рішення про відмову чи схвалення кредиту та бути в змозі обґрунтувати це для всіх зацікавлених сторін. ШІ, який використовується для перевірки та найму, має довести, що базові механізми є справедливими та справедливими для всіх когорт кандидатів.

Робить штучний інтелект більш людяним і покращує адаптацію: У Маккінзі  Звіт про стан ШІ у 2020 році ми дізнаємося, що виробник використовує надзвичайно прозорі моделі для прийняття робітниками на заводі, яким потрібно довіряти судженням ШІ щодо їх безпеки. Для швидкого впровадження штучного інтелекту головною перешкодою для масштабування від простих точкових рішень до корпоративного рівня та отримання максимальної віддачі від інвестицій є отримання зацікавлених сторін. Це значною мірою полегшується, якщо виставу можна пояснити більшій аудиторії. З точки зору бізнесу, пояснюваність покращує загальний досвід користувача та підвищує задоволеність клієнтів. Відповідно до результатів опитування IBM Institute for Business Value, 68 відсотків топ-менеджерів вважають, що протягом наступних трьох років клієнти вимагатимуть від ШІ більшої зрозумілості.

Виявіть упередження та покращте продуктивність моделі:  Розробник повинен знати, як він/вона може покращити продуктивність моделі та як саме її налагодити та налаштувати. Чітка структура пояснення є одним із найважливіших інструментів для проведення необхідного ретельного аналізу.

Отримайте чіткішу, всеохоплюючу інформацію:  Повний огляд на 360 градусів необхідний для повного розуміння будь-яких приписів ШІ. Наприклад, якщо штучний інтелект використовується для прийняття інвестиційного рішення, потрібно знати його обґрунтування, щоб перенести отримані знання в інші сфери, а також зрозуміти потенційні підводні камені прийняття такого рішення. Чітке розуміння того, як працює штучний інтелект, також дозволить особам, які приймають рішення, відкривати нові варіанти використання.

Правила та звітність: Кілька нормативних актів, як-от GDPR, передбачають право на пояснення для вирішення проблем підзвітності, які виникають у результаті автоматизованого процесу прийняття рішень. У таких системах, як автономні транспортні засоби, якщо щось піде не так, що призведе до втрати життя та майна, необхідні належні знання про першопричину, яку буде важко точно визначити в системі чорної скриньки.

Як AI може бути більш зрозумілим?

Системи пояснюваного штучного інтелекту (XAI) розробляються з використанням різних методів, які зосереджуються або на поясненні моделі в цілому, або на поясненні міркувань, що стоять за окремим прогнозом, за допомогою певного алгоритму.

Переважно всі методи пояснення спираються на:

  • Розкладання моделі на окремі компоненти)
  • Візуалізація прогнозів моделі (наприклад, якщо модель класифікує автомобіль як певну марку, вона виділяє ту частину, яка змусила її позначити її як таку)
  • Інтелектуальний аналіз пояснень (використання методів машинного навчання для пошуку відповідних даних, які пояснюють передбачення алгоритму штучного інтелекту).

В одній із таких методик, яка називається проксі-моделюванням, простіша та зрозуміліша модель, як-от дерево рішень, використовується для приблизного представлення більш складної моделі ШІ. Ці спрощені пояснення дають чітке уявлення про модель на високому рівні, але іноді можуть приховати певні нюанси.

Інший підхід називається «інтерпретація за проектом». Цей підхід накладає обмеження на проектування та навчання мережі штучного інтелекту по-новому, намагаючись побудувати загальну мережу з менших і простіших зрозумілих блоків. Це передбачає компроміс між рівнем точності та зрозумілістю та обмежує певні підходи з інструментарію спеціаліста з обробки даних. Це також може бути дуже інтенсивним обчисленням.

Навчання та тестування штучного інтелекту також можуть використовувати агностичні методи перевірки даних, такі як локальна інтерпретована модель (LIME) і адитивні пояснення Шеплі (SHAP), і вони повинні бути адаптовані для досягнення високої точності за допомогою F-показника, точності та інших показників. І, звісно, ​​всі результати слід відстежувати та перевіряти за допомогою різноманітних даних. Використовуючи LIME, наприклад, організації можуть створювати тимчасові моделі, які імітують прогнози непрозорих алгоритмів, таких як машинне навчання. Потім ці моделі LIME можуть створювати широкий діапазон перестановок на основі заданого набору даних і відповідних результатів, які потім можна використовувати для навчання простих моделей, які краще інтерпретуються разом із повними списками пояснень для кожного рішення та/або прогнозу. Структура SHAP, яка базується на теорії ігор і, зокрема, на кооперативній теорії ігор, є моделлю, яка є. Він поєднує оптимальний розподіл кредитів із локальними поясненнями, використовуючи оригінальні значення Шеплі з теорії ігор та їхні нащадки.

Принципові операції

Однак на більш стратегічному рівні структури надійності штучного інтелекту повинні включати широкий набір принципів, спрямованих на забезпечення належних результатів як на початку розгортання, так і з часом, коли моделі розвиваються в умовах, що змінюються. Як мінімум, ці рамки повинні містити такі речі, як:

  • Виявлення зміщення – усі набори даних повинні бути очищені від упередженості та дискримінаційних атрибутів, а потім надано належної ваги та розсуду при застосуванні до навчальної моделі;
  • Залучення людини – оператори повинні мати можливість досліджувати та інтерпретувати вихідні дані алгоритму в будь-який час, особливо коли моделі використовуються для забезпечення правопорядку та збереження громадянських свобод;
  • Обгрунтування – усі прогнози повинні витримувати ретельний аналіз, який за своєю природою вимагає високого ступеня прозорості, щоб дозволити стороннім спостерігачам оцінювати процеси та критерії, що використовуються для отримання результатів;
  • Відтворюваність – надійні моделі штучного інтелекту повинні бути послідовними у своїх прогнозах і демонструвати високий рівень стабільності при зустрічі з новими даними.

Але на XAI слід дивитися не просто як на засіб підвищення прибутковості, а як на засіб підзвітності, щоб гарантувати, що установи можуть пояснити та виправдати вплив своїх творінь на суспільство в цілому.

Балакрішна, відомий як Балі DR, є керівником відділу штучного інтелекту та автоматизації компанії Infosys де він керує як внутрішньою автоматизацією Infosys, так і надає незалежні послуги автоматизації, використовуючи продукти для клієнтів. Балі працює з Infosys більше 25 років і займає посади відділу продажів, управління програмами та доставки в різних регіонах і галузевих вертикалях.