заглушки Зрозумілість може вирішити проблему штучного інтелекту будь-якої галузі: відсутність прозорості - Unite.AI
Зв'язатися з нами

Лідери думок

Зрозумілість може вирішити проблему ШІ будь-якої галузі: відсутність прозорості

mm

опублікований

 on

Автор: Мігель Джетте, віце-президент з науково-дослідних робіт, виступ, оборот.

На стадії зародження штучний інтелект міг спочивати на лаврах новизни. Це нормально, коли машинне навчання навчалося повільно та підтримувало непрозорий процес, у який пересічному споживачеві було неможливо проникнути в обчислення штучного інтелекту. Це змінюється. Оскільки все більше галузей, таких як охорона здоров’я, фінанси та система кримінального правосуддя, починають використовувати штучний інтелект таким чином, щоб справляти реальний вплив на життя людей, все більше людей хочуть знати, як використовуються алгоритми, як джерело даних і просто наскільки точні його можливості. Якщо компанії хочуть залишатися в авангарді інновацій на своїх ринках, їм потрібно покладатися на ШІ, якому довірятиме їхня аудиторія. Зрозумілість штучного інтелекту є ключовим інгредієнтом для поглиблення цього зв’язку.

Пояснюваність ШІ відрізняється від стандартних процедур ШІ, оскільки вона пропонує людям спосіб зрозуміти, як алгоритми машинного навчання створюють результати. Штучний інтелект, який можна пояснити, — це система, яка може надати людям потенційні результати та недоліки. Це система машинного навчання, яка може задовольнити людське бажання чесності, підзвітності та поваги до приватного життя. Штучний інтелект, який можна пояснити, є обов’язковим для того, щоб компанії зміцнювали довіру споживачів.

Поки штучний інтелект розширюється, постачальники штучного інтелекту повинні розуміти, що чорний ящик не може. Моделі чорного ящика створюються безпосередньо з даних, і часто навіть розробник, який створив алгоритм, не може визначити, що зумовило набуті звички машини. Але сумлінний споживач не хоче мати справу з чимось настільки непроникним, що неможливо притягнути до відповідальності. Люди хочуть знати, як алгоритм штучного інтелекту приходить до певного результату без таємниці вихідного введення та контрольованого виходу, особливо коли прорахунки штучного інтелекту часто виникають через упередження машини. Оскільки штучний інтелект стає все більш досконалим, люди хочуть отримати доступ до процесу машинного навчання, щоб зрозуміти, як алгоритм прийшов до конкретного результату. Лідери в кожній галузі повинні розуміти, що рано чи пізно люди більше не будуть віддавати перевагу такому доступу, а вимагатимуть його як необхідного рівня прозорості.

Системи ASR, такі як голосові помічники, технологія транскрипції та інші служби, які перетворюють людську мову на текст охоплений упередженнями. Коли послуга використовується з міркувань безпеки, помилки через акценти, вік або походження людини можуть бути серйозними помилками, тому до проблеми потрібно поставитися серйозно. ASR можна ефективно використовувати в поліцейських натільних камерах, наприклад, для автоматичного запису та транскрибування взаємодій — ведення запису, який за умови точної транскрипції може врятувати життя. Практика пояснюваності вимагатиме, щоб штучний інтелект не просто покладався на придбані набори даних, а намагався зрозуміти характеристики вхідного аудіо, які можуть сприяти помилкам, якщо такі існують. Що таке акустичний профіль? Чи є шум на задньому плані? Чи є той, хто говорить, з країни, де не англійська мова, чи з покоління, яке використовує лексику, яку ШІ ще не вивчив? Машинне навчання має бути активним у навчанні швидше, і воно може початися зі збору даних, які можуть врахувати ці змінні.

Необхідність стає очевидною, але шлях до впровадження цієї методології не завжди матиме легке рішення. Традиційною відповіддю на цю проблему є додавання додаткових даних, але знадобиться більш складне рішення, особливо коли придбані набори даних, які використовують багато компаній, за своєю суттю є упередженими. Це пов’язано з тим, що історично було важко пояснити конкретне рішення, прийняте штучним інтелектом, і це пов’язано зі складністю наскрізних моделей. Однак зараз ми можемо, і ми можемо почати із запитання, як люди взагалі втратили довіру до ШІ.

ШІ неминуче буде робити помилки. Компанії повинні створювати моделі, які б усвідомлювали потенційні недоліки, визначали, коли і де виникають проблеми, і створювали постійні рішення для створення сильніших моделей ШІ:

  1. Коли щось піде не так, розробникам доведеться пояснити, що сталося розробити негайний план для вдосконалення моделі для зменшення подібних помилок у майбутньому.
  2. Щоб машина дійсно знала, правильно це чи ні, вчені повинні це зробити створити цикл зворотного зв'язку щоб штучний інтелект міг вивчити свої недоліки та розвиватися.
  3. Інший спосіб для ASR створити довіру, поки ШІ все ще вдосконалюється, це створити систему, яка може надавати оцінки довіриі поясніть, чому ШІ менш впевнений. Наприклад, компанії зазвичай генерують бали від нуля до 100, щоб відобразити недосконалість власного штучного інтелекту та забезпечити прозорість для своїх клієнтів. У майбутньому системи можуть надавати ретроспективні пояснення того, чому аудіо було складним, пропонуючи більше метаданих про аудіо, наприклад сприйнятий рівень шуму або менш зрозумілий акцент.

Додаткова прозорість призведе до кращого людського контролю за навчанням і продуктивністю ШІ. Чим більше ми відкрито говоримо про те, що нам потрібно покращити, тим більш відповідальними ми будемо вживати заходів щодо цих покращень. Наприклад, дослідник може захотіти знати, чому було виведено помилковий текст, щоб він міг пом’якшити проблему, тоді як фахівець із транскрипції може потребувати доказів того, чому ASR неправильно інтерпретував вхідні дані, щоб допомогти оцінити їх достовірність. Тримаючи людей в курсі, можна пом’якшити деякі з найбільш очевидних проблем, які виникають, коли ШІ не контролюється. Це також може пришвидшити час, потрібний штучному інтелекту для виявлення помилок, покращення та, зрештою, виправлення в реальному часі.

ШІ має можливості покращувати життя людей, але лише якщо люди створять його для належного виробництва. Ми повинні притягнути до відповідальності не лише ці системи, але й людей, які стоять за інноваціями. Очікується, що системи штучного інтелекту майбутнього дотримуватимуться принципів, викладених людьми, і лише до того часу у нас буде система, якій люди довірятимуть. Настав час закласти основу та прагнути до цих принципів зараз, поки зрештою люди все ще служать самі собі.

Мігель Джетте очолює відділ досліджень і розробок штучного інтелекту оборот, платформа транскрипції мовлення в текст, яка поєднує штучний інтелект і досвідчених людей. Він очолює команду, відповідальну за розробку найточнішої у світі платформи штучного інтелекту для перетворення мови в текст. Захоплюючись вирішенням складних проблем і водночас покращуючи життя, він відданий справі підвищення інклюзивності та рівності за допомогою технологій. Понад два десятиліття він працював над впровадженням голосових технологій з такими компаніями, як Nuance Communications і VoiceBox. Він отримав ступінь магістра математики та статистики в університеті Макгілла в Монреалі. Коли він не розвиває комунікацію через штучний інтелект, він проводить свій час як фотограф для змагань зі скелелазіння.