Connect with us

Проблема «Машинної Чуші»: Чому Штучний Інтелект Бреше І Як Її Припинити

Штучний інтелект

Проблема «Машинної Чуші»: Чому Штучний Інтелект Бреше І Як Її Припинити

mm

Штучний інтелект досяг такого рівня, що може створювати тексти, які здаються природними, впевненими та переконливими. Але за полішованим текстом зростає проблема, яку дослідники тепер називають «машинною чушею». Термін не призначений для провокації сам по собі. Він походить від роботи філософа Harry Frankfurt, який визначив «чушу» як мову, створену без уваги до істини. У контексті штучного інтелекту це описує модель, в якій системи генерують твердження, які звучать правдоподібно, але не мають підґрунтя в фактах. Це не те саме, що брехня людини, яка передбачає намір обманути. Натомість це результат того, як ці системи побудовані та навчені. Вони призначені для створення плавної мови, а не для турботи про те, чи мова ця істинна.

Чому Штучний Інтелект Виробляє «Машинну Чушу»

Проблема не є рідкісним збоями або ізольованою помилкою. Це прямий результат того, як великі мовні моделі фундаментально спроектовані та навчені. Ці моделі навчені на величезних кількостях тексту з інтернету, книг та інших джерел. Вони вивчають закономірності слів та того, як вони ймовірно слідують одна за одною. Коли ви задаєте питання, модель передбачає наступне слово, потім наступне та так далі. Вона не перевіряє факти в режимі реального часу. Вона не має вбудованого відчуття істини. Якщо найбільш статистично ймовірна відповідь хибна, але звучить правильно, вона все одно її виробить. Це пояснює, чому штучний інтелект може впевнено давати вам фальшиву цитату, вигадану статистику або спотворений історичний факт.

Дослідники виявили, що вивчення з людської обратної зв’язку, поширений метод, який робить відповіді штучного інтелекту більш корисними та ввічливими, може фактично погіршити проблему. Коли моделі налаштовуються для задоволення користувачів, вони можуть пріоритезувати звучання згодного над точністю. Це може привести до того, що деякі називають «сYCOPHANCY», коли штучний інтелект говорить вам те, що він вважає, ви хочете почути. У політичних або чутливих темах це може означати генерацію невиразної або ухиляної мови – те, що деякі дослідження описують як «слова-відступники». У інших випадках штучний інтелект може виробляти «порожню риторику», довгі пасажі, які звучать думаючими, але містять мало суті.

Деякі дослідники стверджують, що називаючи це поведінку «брехнею», є вводючим в оману, оскільки брехня вимагає наміру. Машина не має переконань або мотивів. Але ефект на користувача може бути таким же, як якщо б це була брехня. Шкода походить від самої брехні, а не від наміру, який стоять за нею. Це пояснює, чому термін «машинна чуша» набуває популярності. Він відображає ідею про те, що система байдужа до істини, навіть якщо вона не намагається обманути.

Ризики та Наслідки Оманливої Вивідки Штучного Інтелекту

Ризики машинної чуші не тільки академічні. У повсякденному використанні це може ввести в оману людей, які покладаються на штучний інтелект для отримання інформації. У журналістиці це може забруднити процес фактчекінгу. У освіті це може дати студентам хибну впевненість у неправильних відповідях. У бізнесі це може спотворити процес прийняття рішень. Небезпека посилюється тим, що вивідка штучного інтелекту часто супроводжується тоном авторитету. Люди більш схильні довіряти твердженню, яке добре написане та позбавлене вагань. Це довіра може бути неправильною, коли система не має внутрішнього механізму для верифікації того, що вона говорить.

Стратегії Зниження Шкоди та Покращення Надійності

Припинення проблеми вимагає більшого, ніж просто кращих навчальних даних. Хоча поліпшення якості та різноманітності даних може допомогти, це не змінює того факту, що основна мета моделі полягає у створенні ймовірного тексту, а не істинного. Одним з підходів є інтеграція систем фактчекінгу, які працюють поряд з мовною моделлю. Ці системи можуть верифікувати твердження проти довірених баз даних до того, як вони будуть представлені користувачеві. Іншим підходом є генерація з підтримкою пошукових запитів, коли модель шукає відповідні документи в режимі реального часу та використовує їх для підґрунтя своїх відповідей. Це може зменшити галюцинації, хоча не усунути їх повністю.

Прозорість також необхідна. Користувачам слід повідомляти, коли штучний інтелект робить обґрунтовану гіпотезу, а не стверджує перевірений факт. Це можна зробити за допомогою оцінок впевненості або явних застережень. Деякі дослідники пропонують, що штучний інтелект повинен бути навчений виражати невпевненість частіше, а не завжди давати певну відповідь. Це зробило б взаємодію схожою на розмову з знаючи, але помильним помічником, а не з всемогутнім оракулом.

Є також роль для регулювання та галузевих стандартів. Якщо системи штучного інтелекту будуть використовуватися в галузях, таких як охорона здоров’я, право чи фінанси, повинні бути чіткі вимоги до точності та підзвітності. Розробники повинні бути能够 пояснити, як працюють їхні системи, на яких даних вони були навчені та які кроки були зроблені для зменшення брехні. Незалежні аудити могли б допомогти забезпечити, що ці заяви не є просто маркетинговими.

У той же час користувачам потрібно розвинути здорову скептичність щодо вивідки штучного інтелекту. Як ми навчилися сумніватися в інформації, яку бачимо в соціальних мережах, ми повинні сумніватися в інформації від штучного інтелекту. Це не означає відкидання її одразу, а лікування її як початкової точки, а не остаточної відповіді. Перевірка з іншими джерелами повинна стати звичкою. Системи освіти можуть відігравати роль тут, навчаючи цифрової грамотності, яка включає розуміння того, як працює штучний інтелект та де він може помилитися.

Проблема машинної чуші не зникне скоро. Коли штучний інтелект стане більш просунутим, його здатність створювати переконливі брехні тільки зростатиме. Але це не означає, що ми нічого не можемо зробити. Об’єднавши технічні засоби захисту, прозорість, регулювання та усвідомленість користувачів, ми можемо зменшити шкоду. Метою є не зробити штучний інтелект досконалим – жодна система ніколи не буде вільна від помилок – а зробити його більш надійним та менш схильним до омани.

Основне

Термін «машинна чуша» може звучати грубо, але він відображає реальність, яку ми не можемо ігнорувати. Штучний інтелект не є нейтральним дзеркалом людських знань. Це генератор мови, сформований даними, алгоритмами та стимулами. Якщо ми хочемо, щоб він служив істині, а не тільки плавності, ми повинні спроектувати його таким чином. Це означає переосмислення не тільки технології, але й цінностей, які керують її розробкою. Виклик полягає не тільки в технічних можливостях, а й у людських пріоритетах. Хочемо ми системи, які оптимізовані для звучання людського, або системи, які оптимізовані для істини? Ці два варіанти не завжди однакові. Якщо ми оберемо перший, ми ризикуємо створити інструменти, які переконливі, але ненадійні. Якщо ми оберемо другий, ми можемо бути змушені прийняти, що штучний інтелект іноді буде менш гладким, менш впевненим та менш розважальним. Але він також буде більш чесним.

Доктор Техсін Зія є доцентом COMSATS University Islamabad, який має ступінь PhD з штучного інтелекту у Віденському технічному університеті, Австрія. Спеціалізується на штучному інтелекті, машинному навчанні, науці про дані та комп'ютерному баченні, він зробив значний внесок з публікаціями в авторитетних наукових журналах. Доктор Техсін також очолював різні промислові проекти як головний дослідник і служив консультантом з штучного інтелекту.