Connect with us

Лідери думок

Чи є RAGs рішенням проблеми галюцинацій штучного інтелекту?

mm

Штучний інтелект, за своєю конструкцією, має “свій власний розум”. Одним з недоліків цього є те, що генеративні моделі штучного інтелекту іноді вигадують інформацію в явищі, яке називається “галюцинаціями штучного інтелекту”, одним з перших прикладів якого став випадок, коли суддя Нью-Йорка відкликав адвокатів за використання юридичної заяви, написаної ChatGPT, яка посилалася на неіснуючі судові справи. Нещодавно відбулися випадки, коли пошукові системи, згенеровані штучним інтелектом, радили користувачам вживати камені для здоров’я, або використовувати неотруйний клей для прикріплення сиру до піци.

Як GenAI стає все більш універсальним, важливо, щоб його采用ли визнали, що галюцинації є, на даний момент, необхідним аспектом рішень GenAI. Будучи побудованими на великих мовних моделях (LLM), ці рішення часто інформуються великою кількістю різноманітних джерел, які, ймовірно, містять хоча б деяку неточну або застарілі інформацію – ці вигадані відповіді складають між 3% і 10% відповідей чат-ботів штучного інтелекту на запити користувачів. У світлі “чорної скриньки” штучного інтелекту – у якій ми, люди, маємо надзвичайні труднощі в дослідженні того, як штучний інтелект генерує свої результати, – ці галюцинації можуть бути майже неможливими для розробників відстежити та зрозуміти.

Необхідні чи ні, галюцинації штучного інтелекту є розчаровуючими в кращому випадку, небезпечними і неетичними в гіршому випадку.

У різних секторах, включаючи охорону здоров’я, фінанси та громадську безпеку, наслідки галюцинацій включають все, від поширення дезінформації та компрометації конфіденційних даних до навіть загрози життю.

Як такий, важливо, щоб опікуни цієї потужної технології визнали та звернули увагу на ризики галюцинацій штучного інтелекту, щоб забезпечити достовірність виходів LLM.

RAGs як початок рішення галюцинацій

Одним з методів, який з’явився на передньому плані в боротьбі з галюцинаціями, є пошукова доповнена генерація, або RAG. Це рішення підвищує надійність LLM через інтеграцію зовнішніх сховищ інформації – витягуючи відповідну інформацію з довіреного банку даних, обраного відповідно до природи запиту, – щоб забезпечити більш надійні відповіді на конкретні запити.

Деякі експерти галузі виступили з твердженням, що RAG сам по собі може вирішити галюцинації. Але бази даних, інтегровані з RAG, все ще можуть містити застарілі дані, які можуть генерувати хибну або вводючу в оману інформацію. У деяких випадках інтеграція зовнішніх даних через RAG може навіть збільшити ймовірність галюцинацій у великих мовних моделях: якщо модель штучного інтелекту надмірно залежить від застарілого банку даних, який вона сприймає як повністю актуальний, ступінь галюцинацій може стати ще більш серйозним.

Охоронні заходи штучного інтелекту – ліквідація прогалин RAG

Як ви можете побачити, RAG дійсно мають перспективи щодо пом’якшення галюцинацій штучного інтелекту. Однак галузі та підприємства, які звертаються до цих рішень, також повинні зрозуміти їх внутрішні обмеження. Дійсно, коли їх використовують разом з RAG, існують додаткові методи, які слід використовувати при звертанні до галюцинацій LLM.

Наприклад, підприємства можуть використовувати реальні охоронні заходи штучного інтелекту, щоб забезпечити відповіді LLM і пом’якшити галюцинації штучного інтелекту. Охоронні заходи діють як сітка, яка перевіряє всі виходи LLM на вигадану, нецензурну або не на тему інформацію до того, як вона потрапить до користувачів. Цей проактивний підхід middleware забезпечує надійність і актуальність пошуку в системах RAG, в кінцевому підсумку підвищуючи довіру серед користувачів і забезпечуючи безпечні взаємодії, які відповідають бренду компанії.

Альтернативно, існує підхід “інженерії запиту”, який вимагає від інженера змінити мастер-запит. Додавши попередньо визначені обмеження до прийнятних запитів – тобто, контролюючи не тільки звідки LLM отримує інформацію, але і як користувачі запитують її, – інженерні запити можуть спрямувати LLM до більш надійних результатів. Основний мінус цього підходу полягає в тому, що така інженерія запитів може бути надзвичайно трудомістким завданням для програмістів, які часто вже обмежені часом і ресурсами.

Підхід “файн-тюнінгу” включає навчання LLM на спеціалізованих наборах даних для підвищення продуктивності і пом’якшення ризику галюцинацій. Цей метод тренує спеціалізовані LLM для витягування інформації з конкретних довірених доменів, покращуючи точність і надійність виходів.

Важливо також враховувати вплив довжини входу на продуктивність виводу LLM – дійсно, багато користувачів вважають, що чим більшою і параметризованою є їх запит, тим більш точними будуть виходи. Однак одне недавнє дослідження показало, що точність виходів LLM фактично зменшилася при збільшенні довжини входу. Таким чином, збільшення кількості вказівок, призначених будь-якому запиту, не гарантує постійної надійності генерації надійних застосунків штучного інтелекту.

Це явище, відоме як “перевантаження запиту”, підкреслює внутрішні ризики надмірно складних конструкцій запитів – чим ширше сформульований запит, тим більше дверей відкривається до неточної інформації та галюцинацій, коли LLM намагається виконати кожний параметр.

Інженерія запиту вимагає постійних оновлень і файн-тюнінгу і все ще бореться з попередженням галюцинацій або безглуздих відповідей ефективно. Охоронні заходи, з іншого боку, не створять додаткового ризику вигаданих виходів, роблячи їх привабливим варіантом для захисту штучного інтелекту. На відміну від інженерії запиту, охоронні заходи пропонують всеосяжне реальне рішення, яке забезпечує, що генеративний штучний інтелект буде створювати виходи лише в межах попередньо визначених меж.

Хоча не самостійне рішення, зворотний зв’язок користувачів також може допомогти пом’якшити галюцинації діями, такими як голосування “за” і “проти”, які допомагають уточнювати моделі, підвищувати точність виходів і знижувати ризик галюцинацій.

Самі по собі рішення RAG вимагають широких експериментів, щоб досягти точних результатів. Але коли їх поєднують з файн-тюнінгом, інженерією запиту та охоронними заходами, вони можуть пропонувати більш цілеспрямовані та ефективні рішення для звертання до галюцинацій. Дослідження цих додаткових стратегій продовжить покращувати пом’якшення галюцинацій в LLM, сприяючи розвитку більш надійних і достовірних моделей у різних застосуваннях.

RAGs не є рішенням галюцинацій штучного інтелекту

Рішення RAG додають величезну цінність LLM, збагачуючи їх зовнішніми знаннями. Але з так багато ще невідомого про генеративний штучний інтелект, галюцинації залишаються вбудованим викликом. Ключ до боротьби з ними лежить не в тому, щоб спробувати ліквідувати їх, а радше в тому, щоб пом’якшити їхній вплив за допомогою комбінації стратегічних охоронних заходів, процесів перевірки та файн-тюнінгу запитів.

Чим більше ми можемо довіряти тому, що говорить нам GenAI, тим більш ефективно і продуктивно ми зможемо використовувати його потужний потенціал.

Ліран Хасон є співзасновником і генеральним директором Aporia, провідної платформи контролю ІІ, довіреної компаніями Fortune 500 і лідерами галузі у світі для забезпечення довіри до GenAI. Aporia також була визнана технологічним піонером Всесвітнім економічним форумом. До заснування Aporia Ліран був архітектором ML у Adallom (придбано Microsoft), а пізніше інвестором у Vertex Ventures. Ліран заснував Aporia після того, як побачив особисто наслідки ІІ без обмежень. У 2022 році Forbes назвав Aporia "Наступною компанією з капіталізацією в 1 мільярд доларів"