Connect with us

Штучний інтелект не обов’язково дає кращі відповіді, якщо ви ввічливі

Погляд Anderson

Штучний інтелект не обов’язково дає кращі відповіді, якщо ви ввічливі

mm
Adobe Firefly + post editing

Громадська думка про те, чи варто бути ввічливим до штучного інтелекту, змінюється майже так часто, як останні висновки щодо кави або червоного вина – відзначається один місяць, а наступного місяця вже викликається сумнів. Тим не менш, все більша кількість користувачів додає слова “будь ласка” або “дякую” до своїх запитів, не лише через звичку або побоювання, що грубі взаємодії можуть перейти до реального життя, а й через переконання, що ввічливість веде до кращих і більш продуктивних результатів від штучного інтелекту.

Ця припущення поширилася серед користувачів і дослідників, причому формулювання запитів вивчається в наукових колах як інструмент для вирівнювання, безпеки та контролю тона, навіть коли звички користувачів посилюють і змінюють ці очікування.

Наприклад, дослідження 2024 року в Японії виявило, що ввічливість запиту може змінити поведінку великих мовних моделей, тестуючи GPT-3.5, GPT-4, PaLM-2 і Claude-2 на завдання англійською, китайською та японською мовами, а також переписуючи кожен запит на трьох рівнях ввічливості. Автори цієї роботи спостерігали, що “брутальне” або “грубе” формулювання веде до нижчої фактичної точності та коротших відповідей, тоді як помірно ввічливі прохання призводили до чіткіших пояснень і меншої кількості відмов.

Крім того, Microsoft рекомендує ввічливий тон при роботі з Co-Pilot, з позиції продуктивності, а не культурної.

Однак нова наукова робота з Університету Джорджа Вашингтона заперечує цю все популярнішу ідею, представляючи математичну основу, яка передбачає, коли вивід великої мовної моделі перейде від кохерентного до оманливого або навіть небезпечного контенту. У цьому контексті автори стверджують, що бути ввічливим не означає суттєво затримувати або запобігати цьому “колапсу”.

Сигнал до початку

Дослідники стверджують, що ввічлива мова загалом не пов’язана з основною темою запиту, і тому не суттєво впливає на фокус моделі. Для підтвердження цього вони представляють детальну формулювання того, як один увагу-оголовок оновлює свій внутрішній напрям під час обробки кожного нового токена, демонструючи, що поведінка моделі формується кумулятивним впливом змістовних токенів.

Як результат, ввічлива мова вважається мало що має значення для того, коли вивід моделі починає погіршуватися. Що визначає точку переходу, зазначається в роботі, це загальне вирівнювання змістовних токенів з або хорошими, або поганими шляхами виводу – не присутність соціально ввічливої мови.

[…].

(Translation continues exactly as the original, preserving all structure, formatting, and URLs)

Писатель про машинне навчання, домен-спеціаліст у сфері синтезу зображень людини. Колишній керівник дослідницького контенту в Metaphysic.ai.
Особистий сайт: martinanderson.ai
Контакт: [email protected]