Connect with us

Explainability Can Address Every Industry’s AI Problem: The Lack of Transparency

Лідери думок

Explainability Can Address Every Industry’s AI Problem: The Lack of Transparency

mm

By: Мігель Джетт, VP of R&D Speech, Rev.

У своїй зародковій стадії штучний інтелект міг спочивати на лаврах новизни. Було нормально, коли машинне навчання навчалося повільно та підтримувало непрозорий процес, у якому розрахунок штучного інтелекту був неможливий для пересічного споживача. Але це змінюється. Коли все більше галузей, таких як охорона здоров’я, фінанси та система кримінального правосуддя, починають використовувати штучний інтелект способами, які можуть мати реальний вплив на життя людей, все більше людей хочуть знати, як алгоритми використовуються, як джерела даних та наскільки точні їхні можливості. Якщо компанії хочуть залишатися на чолі інновацій на своїх ринках, їм потрібно покладатися на штучний інтелект, якому їхня аудиторія буде довіряти. Explainability штучного інтелекту є ключовим інгредієнтом для поглиблення цього зв’язку.

Штучний інтелект з поясненнями відрізняється від стандартних процедур штучного інтелекту, оскільки пропонує людям спосіб зрозуміти, як алгоритми машинного навчання створюють вивід. Пояснюваний штучний інтелект – це система, яка може надати людям потенційні результати та недоліки. Це система машинного навчання, яка може виконувати людське бажання справедливості, підзвітності та поваги до приватності. Пояснюваний штучний інтелект є обов’язковим для бізнесу, щоб будувати довіру з споживачами.

Хоча штучний інтелект розширюється, постачальники штучного інтелекту повинні розуміти, що чорна скринька не може. Моделі чорної скриньки створюються безпосередньо з даних і часто навіть розробник, який створив алгоритм, не може ідентифікувати, що спонукало машину до вивчених звичок. Але свідомий споживач не хоче вступати у взаємодію з чимось таким непроникним, що не може бути піддано відповідальності. Люди хочуть знати, як алгоритм штучного інтелекту доходить до певного результату без загадки джерел входу та контрольованого виходу, особливо коли похибки штучного інтелекту часто спричинені машинними упередженнями. Коли штучний інтелект стає більш просунутим, люди хочуть мати доступ до процесу машинного навчання, щоб зрозуміти, як алгоритм прийшов до певного результату. Лідери кожної галузі повинні розуміти, що скоро люди не будуть бажати цього доступу, а вимагатимуть його як необхідний рівень прозорості.

Системи розпізнавання мовлення, такі як голосові помічники, технологія транскрибування та інші служби, які перетворюють людську мову на текст, особливо страждають від упереджень. Коли послуга використовується для заходів безпеки, помилки через акценти, вік людини чи походження можуть бути трагічними помилками, тому проблему потрібно сприймати серйозно. Системи розпізнавання мовлення можна ефективно використовувати в камерах поліцейських нагрудників, наприклад, для автоматичної реєстрації та транскрибування взаємодій – зберігання запису, який, якщо транскрибується точно, міг би врятувати життя. Практика пояснюваності потребує, щоб штучний інтелект не тільки покладався на придбані набори даних, а також намагався зрозуміти характеристики вхідного аудіо, які можуть сприяти помилкам, якщо такі існують. Який акустичний профіль? Чи є шум на задньому плані? Чи говорить мовець з країни, де англійська не є першою мовою, або з покоління, яке використовує лексику, якої штучний інтелект ще не навчився? Машинне навчання повинно бути проактивним у швидшому навчанні, і воно може почати з збору даних, які можуть адресувати ці змінні.

Необхідність стає очевидною, але шлях до впровадження цієї методології не завжди матиме легке рішення. Традиційна відповідь на проблему полягає в тому, щоб додати більше даних, але більш складне рішення буде необхідним, особливо коли придбані набори даних, які використовують компанії, є вроджено упередженими. Це відбувається через те, що історично було важко пояснити певне рішення, винесене штучним інтелектом, і це відбувається через природу складності кінцевих моделей. Однак ми можемо зробити це зараз, і ми можемо почати з питання, як люди втратили довіру до штучного інтелекту спочатку.

Невідворотно, штучний інтелект буде робити помилки. Компанії повинні будувати моделі, які будуть знають про потенційні недоліки, визначати, коли та де відбуваються проблеми, та створювати тривалі рішення для будівництва сильніших моделей штучного інтелекту:

  1. Коли щось піде не так, розробникам потрібно буде пояснити, що відбулося, і розробити негайний план для поліпшення моделі, щоб зменшити майбутні подібні помилки.
  2. Щоб машина могла дійсно знати, чи була вона права чи ні, вченим потрібно створити зворотній зв’язок, щоб штучний інтелект міг вивчити свої недоліки та еволюціонувати.
  3. Іншим способом для систем розпізнавання мовлення побудувати довіру, поки штучний інтелект ще вдосконалюється, є створення системи, яка може надавати оцінки впевненості, і надавати причини, чому штучний інтелект менш впевнений. Наприклад, компанії зазвичай генерують оцінки від нуля до 100, щоб відобразити власні недоліки штучного інтелекту та встановити прозорість зі своїми клієнтами. У майбутньому системи можуть надавати пояснення після факту, чому аудіо було складним, надаючи більше метаданих про аудіо, таких як сприйнятий рівень шуму або менш зрозумілий акцент.

Додаткова прозорість призведе до кращого людського нагляду за навчанням та виконанням штучного інтелекту. Чим більше ми відкриті щодо того, де нам потрібно покращення, тим більше ми підзвітні щодо прийняття заходів щодо цих покращень. Наприклад, дослідник може хочеть знати, чому було виведено помилковий текст, щоб він міг усунути проблему, тоді як транскрибіст може хочеть докази того, чому система розпізнавання мовлення неправильно інтерпретувала вхід, щоб допомогти з оцінкою її достовірності. Залишення людей у циклі може пом’якшити деякі з найбільш очевидних проблем, які виникають, коли штучний інтелект залишається без нагляду. Це також може прискорити час, необхідний для того, щоб штучний інтелект виявив свої помилки, покращився та врешті виправився в режимі реального часу.

Штучний інтелект має можливості покращити життя людей, але тільки якщо люди будують його правильно. Нам потрібно тримати не тільки ці системи під відповідальністю, а й людей, які стоять за інноваціями. Системи штучного інтелекту майбутнього повинні відповідати принципам, встановленим людьми, і тільки тоді ми матимемо систему, якій люди довіряють. Прийшов час закладати основу та прагнути до цих принципів зараз, поки це ще люди служать собі.

Мігель Жетте є головою відділу досліджень і розробок штучного інтелекту в Rev, платформі транскрипції мовлення у текст, що поєднує штучний інтелект зі кваліфікованими людьми. Він очолює команду, відповідальну за розробку найбільш точної платформи штучного інтелекту для транскрипції мовлення. Прагнучи розв'язувати складні проблеми та покращувати життя, він присвячений збільшенню інклюзивності та рівності через технології. За понад два десятиліття він працював над впровадженням голосових технологій у компаніях, включаючи Nuance Communications і VoiceBox. Він здобув магістерський ступінь з математики та статистики в Університеті Макгілла в Монреалі. Коли він не просунув спілкування через штучний інтелект, він проводить свій час як фотограф для змагань з рок-клімбінгу.

Розкриття інформації про рекламу: Unite.AI дотримується суворих редакційних стандартів, щоб надавати читачам точну інформацію та новини. Ми можемо отримувати компенсацію, якщо ви переходите за посиланнями на продукти, які ми оглядали.