Зв'язатися з нами

Ілюзія розуміння: чому прозорість штучного інтелекту вимагає більше, ніж просто ланцюжок думок

Штучний Інтелект

Ілюзія розуміння: чому прозорість штучного інтелекту вимагає більше, ніж просто ланцюжок думок

mm

опублікований

 on

Спільнота штучного інтелекту вже давно бореться з фундаментальною проблемою створення прозорих та зрозумілих систем штучного інтелекту. Оскільки великі мовні моделі стають дедалі потужнішими, дослідники почали використовувати ланцюг думок (CoT) підказування як рішення цієї проблеми прозорості. Цей метод заохочує моделі штучного інтелекту демонструвати свій процес міркування крок за кроком, створюючи те, що здається чітким шляхом від питання до відповіді. Однак, зростаюча кількість дослідження припускає, що CoT може не надавати справжнього або точного пояснення того, як працюють LLM. Це розуміння особливо важливе для окремих осіб та організацій, які покладаються на CoT для інтерпретації систем штучного інтелекту, особливо у таких відповідальних сферах, як охорона здоров'я, судові процеси та управління автономними транспортними засобами.

У цій публікації в блозі досліджуються притаманні ризики використання CoT як інструменту інтерпретації, розглядаються його обмеження та окреслюються потенційні напрямки досліджень, які можуть призвести до більш точних та надійних пояснень систем штучного інтелекту.

Розуміння ланцюга думок

Ланцюг думок Підказки стали проривною технікою для покращення можливостей штучного інтелекту в міркуванні. Метод розбиває складні проблеми на серію проміжних кроків, покращуючи здатність фахівців з права методично вирішувати проблеми та розкривати кожен крок свого розумового процесу. Цей підхід виявився надзвичайно ефективним у різних галузях, особливо в математичних та здорових глуздах. Коли моделі отримують підказки, вони можуть «думати крок за кроком» через складні завдання та пропонувати зрозумілий для людини опис процесу прийняття рішень. Це забезпечує безпрецедентне розуміння роботи моделі, створюючи враження прозорості, яке вигідне як дослідникам, розробникам, так і користувачам. Однак, незважаючи на свої переваги, цей, здавалося б, простий метод має кілька переваг. підводні камені що може призвести до помилкових інтерпретацій поведінки моделі.

Ілюзія прозорості

Фундаментальна проблема прирівнювання CoT до пояснимості полягає в критичному хибному уявленні про те, як працюють системи штучного інтелекту. Ключова проблема полягає в тому, що CoT не відображає точно основні обчислення в моделі. Хоча кроки міркувань можуть здаватися логічно обґрунтованими, вони можуть не узгоджуватися з фактичним процесом прийняття рішень у моделі. Цю невідповідність дослідники називають «неточністю».

Щоб краще зрозуміти це, розглянемо просту аналогію: якщо ви попросите шахіста пояснити свій хід, він може розповісти про аналіз різних позицій та розрахунок можливих відповідей. Однак, значна частина його рішень, ймовірно, відбувається через розпізнавання образів та інтуїцію, розвинені протягом років практики. Усне пояснення, хоча й корисне, може не охоплювати всю складність його розумового процесу.

Системи штучного інтелекту стикаються з аналогічною проблемою. Нейронні мережі, зокрема моделі на основі трансформатора, що забезпечують роботу цих моделей, обробляють інформацію способами, що принципово відрізняються від людського мислення. Ці моделі одночасно обробляють дані між кількома головками уваги та рівнями, розподіляючи обчислення замість того, щоб виконувати їх послідовно. Коли вони генерують пояснення CoT, вони перетворюють свої внутрішні обчислення на покрокову, зрозумілу для людини розповідь; однак, цей переклад може неточно відображати основний процес.

Межі покрокового мислення

Ця неточність CoT вводить кілька ключових обмежень, які підкреслюють, чому він не може бути повним рішенням для пояснювальності ШІ:

По-перше, пояснення ланцюжка думок можуть бути ретроспективному раціоналізації, а не справжні сліди міркувань. Модель може дійти до відповіді за допомогою одного процесу, але потім побудувати правдоподібне пояснення, яке йде іншим логічним шляхом. Це явище добре задокументований у людській психології, де люди часто створюють зв'язні наративи, щоб пояснити рішення, прийняті через несвідомі або емоційні процеси.

По-друге, якість і точність міркувань CoT можуть суттєво відрізнятися залежно від складності проблеми та навчальних даних моделі. Для знайомих задач кроки міркувань можуть здаватися логічними та вичерпними. Для нових завдань та сама модель може породжувати міркування, які містять ледь помітні помилки або логічні прогалини.

По-третє, підказки CoT можуть приховувати, а не висвітлювати фактори, які найбільше впливають на прийняття рішень ШІ. Модель може зосереджуватися на очевидних, чітко викладених елементах, ігноруючи приховані закономірності або асоціації, які суттєво впливають на її міркування. Така вибіркова увага може створювати хибне відчуття повноти пояснення.

Ризики неправильної довіри у сферах з високими ставками

У середовищах з високими ставками, таких як охорона здоров'я чи юриспруденція, покладання на ненадійні пояснення CoT може мати серйозні наслідки. Наприклад, у медичних системах штучного інтелекту несправний CoT може раціоналізувати діагноз на основі хибних кореляцій, що призводить до неправильних рекомендацій щодо лікування. Аналогічно, у юридичних системах штучного інтелекту модель може створити, здавалося б, логічне пояснення юридичного рішення, яке маскує приховані упередження або помилки в судженнях.

Небезпека полягає в тому, що пояснення CoT можуть здаватися переконливо точними, навіть якщо вони не відповідають фактичним розрахункам моделі. Це хибне відчуття прозорості може призвести до надмірної залежності від систем штучного інтелекту, особливо коли експерти-люди надмірно довіряють обґрунтуванню моделі, не враховуючи основні невизначеності.

Різниця між продуктивністю та пояснимістю

Плутанина між ланцюжком думок та пояснимістю виникає через змішування двох різних цілей: покращення продуктивності ШІ та забезпечення розуміння систем ШІ. Підказка CoT чудово справляється з першим, але може не досягати другого.

З точки зору продуктивності, підказки CoT працює оскільки це змушує моделі займатися більш систематичною обробкою. Розбиваючи складні проблеми на менші кроки, моделі можуть обробляти складніші завдання міркування. Це покращення можна виміряти та воно є послідовним у різних тестах та програмах.

Однак справжня пояснимість вимагає чогось глибшого. Вона вимагає, щоб ми розуміли не лише які кроки зробив ШІ, але й чому він зробив саме ці кроки, і наскільки ми можемо бути впевнені в його міркуваннях. Пояснюваний ШІ має на меті надати уявлення про сам процес прийняття рішень, а не просто описати результат.

Ця відмінність має величезне значення у сферах з високими ставками. У сфері охорони здоров'я, фінансів чи права недостатньо знати, що система штучного інтелекту дотримується певного шляху міркування; також необхідно розуміти логіку, що лежить в його основі. Нам потрібно розуміти надійність цього шляху, припущення, які він робить, та потенціал помилок або упередженостей.

Що вимагає справжня пояснимість ШІ

Справжня пояснювальність за допомогою ШІ має кілька ключових вимог, які сам по собі ланцюжок думок може не виконати. Розуміння цих вимог допомагає прояснити, чому ланцюжок думок є лише одним елементом пазлу прозорості.

Справжня пояснювальність вимагає інтерпретації на кількох рівнях. На найвищому рівні нам потрібно розуміти загальну систему прийняття рішень, яку використовує ШІ. На проміжних рівнях нам потрібне розуміння того, як різні типи інформації зважуються та поєднуються. На найфундаментальнішому рівні нам потрібно зрозуміти, як конкретні вхідні дані активують певні реакції.

Надійність та узгодженість є ще одним важливим виміром. Зрозуміла система штучного інтелекту повинна надавати подібні пояснення для подібних вхідних даних та мати змогу чітко висловлювати рівень впевненості в різних аспектах своїх міркувань. Така узгодженість допомагає зміцнити довіру та дозволяє користувачам належним чином оцінити свою залежність від системи.

Крім того, справжня пояснювальність вимагає врахування ширшого контексту, в якому функціонують системи штучного інтелекту. Ця здатність охоплює розуміння навчальних даних, потенційних упереджень, обмежень системи та умов, за яких її міркування можуть бути зламані. Підказки, засновані на ланцюжку думок, зазвичай не можуть забезпечити таке розуміння на метарівні.

Шлях вперед

Визнання обмежень ланцюжка думок як пояснимості не зменшує його цінності як інструменту для покращення міркувань ШІ. Натомість, воно підкреслює необхідність більш комплексного підходу до прозорості ШІ, який поєднує різні методи та перспективи.

Майбутнє пояснювальності ШІ, ймовірно, полягає в гібридних підходах, які поєднують інтуїтивну привабливість ланцюгового мислення з більш суворими методами розуміння поведінки ШІ. Цей підхід може включати візуалізацію уваги для виділення інформації, на якій зосереджується модель, кількісну оцінку невизначеності для визначення рівнів достовірності та контрфактуальний аналіз для вивчення того, як різні вхідні дані можуть змінити процес міркування.

Крім того, спільноті штучного інтелекту необхідно розробити кращі системи оцінки самої пояснимості. Наразі ми часто оцінюємо пояснення на основі того, чи здаються вони розумними для людей, але такий підхід може не охоплювати всю складність прийняття рішень за допомогою штучного інтелекту. Важливо використовувати складніші метрики, що враховують точність, повноту та надійність пояснень.

Bottom Line

Хоча метод ланцюжка думок (CoT) зробив кроки у покращенні прозорості ШІ, він часто створює ілюзію розуміння, а не забезпечує справжньої пояснювальності. Пояснення CoT можуть спотворювати основні процеси моделей ШІ, що може призвести до оманливих або неповних наративів. Це особливо проблематично у високовартісних галузях, таких як охорона здоров'я та право, де хибна довіра до цих пояснень може мати серйозні наслідки. Справжня прозорість ШІ вимагає глибшого розуміння системи прийняття рішень, впевненості моделі в її міркуваннях та ширшого контексту її функціонування. Більш комплексний підхід до пояснювальності ШІ, що поєднує кілька методів, є важливим для підвищення довіри та надійності систем ШІ.

Доктор Техсін Зія є штатним доцентом Університету COMSATS Ісламабад, має ступінь доктора філософії зі штучного інтелекту у Віденському технологічному університеті, Австрія. Спеціалізуючись на штучному інтелекті, машинному навчанні, науці про дані та комп’ютерному зорі, він зробив значний внесок публікаціями в авторитетних наукових журналах. Доктор Техсін також керував різними промисловими проектами як головний дослідник і працював консультантом зі штучного інтелекту.