Connect with us

Зупинення штучного інтелекту від створення історій: Посібник з попередження галюцинацій

Лідери думок

Зупинення штучного інтелекту від створення історій: Посібник з попередження галюцинацій

mm

Штучний інтелект революціонізує спосіб функціонування майже кожної галузі. Він робить нас більш ефективними, продуктивними та – коли впроваджується правильно – кращими у своїй роботі в цілому. Але оскільки наша залежність від цієї нової технології швидко зростає, нам потрібно нагадувати собі про одну просту річ: штучний інтелект не є непогрішимим. Його виходи не повинні прийматися як є, оскільки, як і люди, штучний інтелект може помилятися.

Ми називаємо ці помилки “галюцинаціями штучного інтелекту”. Такі прикрощі можуть бути будь-чим, від неправильного答案у на математичну задачу до надання неточної інформації про урядові політики. У високорегульованих галузях галюцинації можуть привести до дорогої штрафів та юридичних проблем, не кажучи вже про незадоволених клієнтів.

Частота галюцинацій штучного інтелекту повинна бути причиною для занепокоєння: оцінюється, що сучасні великі мови моделі (LLM) галюцинують будь-де від 1% до 30% часу. Це призводить до сотень хибних відповідей, згенерованих щодня, що означає, що бізнеси, які хочуть використовувати цю технологію, повинні бути дуже вибагливими при виборі інструментів для впровадження.

Давайте розглянемо, чому галюцинації штучного інтелекту відбуваються, що на кону, і як ми можемо їх ідентифікувати та виправити.

Сміття у вході, сміття на виході

Чи пам’ятаєте, як ви грали в гру “телефон” у дитинстві? Як початкове речення змінювалося, коли проходило від гравця до гравця, в результаті чого вийшло зовсім інше твердження, коли воно дійшло до кінця кола?

Спосіб, у який штучний інтелект вчиться з його входів, схожий. Відповіді, згенеровані LLM, настільки ж хороші, як і інформація, яку вони отримують, що означає, що неправильний контекст може привести до генерації та поширення хибної інформації. Якщо система штучного інтелекту побудована на даних, які є неточними, застарілими або упередженими, то її виходи відображатимуть це.

Таким чином, LLM є настільки ж хорошим, як і його входи, особливо коли відсутня людська інтервенція або нагляд. Коли автономні рішення штучного інтелекту поширюються, критично важливо, щоб ми забезпечили інструменти правильним контекстом даних, щоб уникнути галюцинацій. Нам потрібно ретельне навчання цих даних та/або можливість направляти LLM так, щоб вони реагували тільки з контексту, який їм надається, а не витягуючи інформацію з будь-якого місця в інтернеті.

Чому галюцинації мають значення?

Для клієнт-орієнтованих бізнесів точність – це все. Якщо працівники покладаються на штучний інтелект для завдань, таких як синтез клієнтських даних або відповіді на клієнтські запити, їм потрібно довіряти, що відповіді, згенеровані такими інструментами, точні.

В іншому випадку бізнеси ризикують завдати шкоди своїй репутації та лояльності клієнтів. Якщо клієнти отримують недостатню або хибну інформацію від чат-бота або якщо їм доводиться чекати, поки працівники перевірять виходи чат-бота, вони можуть взяти свій бізнес в інше місце. Люди не повинні хвилюватися про те, чи надають їм бізнеси, з якими вони взаємодіють, хибну інформацію – їм потрібно швидка та надійна підтримка, що означає, що отримання цих взаємодій правильно має першорядне значення.

Лідери бізнесу повинні зробити свою домашню роботу при виборі правильного інструменту штучного інтелекту для своїх працівників. Штучний інтелект повинен звільнити час і енергію працівників, щоб вони могли зосередитися на завданнях вищої цінності; інвестування в чат-бот, який потребує постійного людського нагляду, знімає весь сенс впровадження. Але чи дійсно галюцинації настільки поширені або термін просто надмірно використовується для ідентифікації будь-якої відповіді, яку ми вважаємо неправильною?

Боротьба з галюцинаціями штучного інтелекту

Врахуйте: Динамічна теорія значення (DMT), концепція, згідно з якою взаєморозуміння між двома особами – у цьому випадку користувачем і штучним інтелектом – обмінюються. Але обмеження мови та знання предметів можуть привести до неправильного тлумачення відповіді.

У разі відповідей, згенерованих штучним інтелектом, можливо, що основні алгоритми ще не повністю обладнані для точної інтерпретації або генерації тексту таким чином, щоб відповідати очікуванням людей. Ця розбіжність може привести до відповідей, які можуть здатися точними на поверхні, але врешті-решт не мають глибини або нюансів, необхідних для справжнього розуміння.

Крім того, більшість загальних мов моделей витягують інформацію лише з вмісту, який є публічно доступним в інтернеті. Підприємства застосування штучного інтелекту працюють краще, коли вони інформуються даними та політикою, специфічними для окремих галузей та бізнесів. Моделі також можуть бути покращені прямим людським зворотнім зв’язком – особливо агентськими рішеннями, які призначені для реакції на тон та синтаксис.

Такі інструменти також повинні бути суворо протестовані, перш ніж вони стануть клієнт-орієнтованими. Це критично важливий крок у попередженні галюцинацій штучного інтелекту. Цілком потік повинен бути протестований за допомогою розмов, заснованих на поворотах, з LLM, який грає роль персони. Це дозволяє бізнесам краще припускати загальний успіх розмов з моделлю штучного інтелекту перед її випуском у світ.

Це важливо для розробників та користувачів технології штучного інтелекту залишатися обізнаними про динамічну теорію значення у відповідях, які вони отримують, а також про динаміку мови, яка використовується у вході. Пам’ятайте, контекст – це все. І, як люди, більша частина нашого контексту зрозуміла через ненаведені засоби, чи то через мову тіла, соціальні тенденції – навіть наш тон. Як люди, ми маємо потенціал галюцинувати у відповідь на питання. Але в нашій поточній ітерації штучного інтелекту людське розуміння не так легко контекстуалізується, тому нам потрібно бути більш критичними щодо контексту, який ми надаємо у письмовій формі.

Досить сказати – не всі моделі штучного інтелекту створені рівними. Коли технологія розвивається для виконання все більш складних завдань, важливо для бізнесів, які розглядають впровадження, ідентифікувати інструменти, які покращать клієнтські взаємодії та досвід, а не погіршать їх.

Відповідальність не лежить лише на постачальниках рішень, щоб забезпечити, що вони зробили все можливе, щоб мінімізувати можливість галюцинацій. Потенційні покупці також мають свою роль. Приоритизуючи рішення, які ретельно тренуються та тестуються і можуть вивчати з власних даних (замість всього, що є в інтернеті), бізнеси можуть зробити найкраще з інвестицій у штучний інтелект, щоб забезпечити успіх працівників та клієнтів.

Dan Balaceanu, Chief Product Officer at DRUID AI, має досвід управління відділами розробки та процесами всередині підприємств. Він є висококваліфікованим архітектором рішень та технічним керівником проекту з більш ніж 15-річним досвідом керівництва середніми проектами розробки та впровадження, з збором вимог клієнтів, аналізом систем, розробкою та тестуванням програмного забезпечення в командах, орієнтованих на клієнта.

Розкриття інформації про рекламу: Unite.AI дотримується суворих редакційних стандартів, щоб надавати читачам точну інформацію та новини. Ми можемо отримувати компенсацію, якщо ви переходите за посиланнями на продукти, які ми оглядали.