Connect with us

Етика

Як штучний інтелект впливає на критичні рішення людини

mm

Недавнє дослідження Університету Каліфорнії в Мерседі пролили світло на турбуючу тенденцію: нашу схильність довіряти штучним інтелектним системам надмірно, навіть у ситуаціях, коли на кону стоять життя чи смерть.

Оскільки штучний інтелект продовжує проникати в різні аспекти нашого суспільства, від помічників смартфонів до складних систем підтримки рішень, ми дедалі більше залежимо від цих технологій для指导у наших виборів. Хоча штучний інтелект безумовно приніс численні переваги, дослідження Університету Каліфорнії в Мерседі піднімає тривожні питання про нашу готовність віддавати перевагу штучному інтелектові в критичних ситуаціях.

Дослідження, опубліковане в журналі Scientific Reports, показало приголомшливу схильність людей дозволяти штучному інтелектові впливати на їхнє судження в симульованих ситуаціях життя чи смерті. Це відкриття відбувається в критичний момент, коли штучний інтелект інтегрується в процеси прийняття високоризикових рішень в різних галузях, від військових операцій до охорони здоров’я та правоохоронної діяльності.

Дослідження Університету Каліфорнії в Мерседі

Для вивчення довіри людей до штучного інтелекту дослідники Університету Каліфорнії в Мерседі розробили серію експериментів, які розмістили учасників в симульованих високотискових ситуаціях. Методологія дослідження була розроблена для імітації реальних сценаріїв, де рішення, прийняті за лічені секунди, можуть мати важливі наслідки.

Методологія: Симульовані рішення про удар дрона

Учасникам було дано контроль над симульованим озброєним дроном і поставлено завдання ідентифікувати цілі на екрані. Виклик було розраховано на те, щоб бути складним, але досяжним, з зображеннями, які швидко мигали, і учасниками, яким потрібно було розрізняти символи союзників і ворогів.

Після того, як учасники прийняли своє первинне рішення, їм було представлено вхід від системи штучного інтелекту. Невідомо для учасників, ця порада штучного інтелекту була цілком випадковою і не базувалася на будь-якому фактичному аналізі зображень.

Дві третини учасників змінили своє рішення під впливом штучного інтелекту

Результати дослідження були вражаючими. Приблизно дві третини учасників змінили своє первинне рішення, коли штучний інтелект не погоджувався з ними. Це відбулося尽管 учасникам було явно повідомлено, що штучний інтелект мав обмежені можливості і міг давати неправильні поради.

Професор Колін Голбрук, головний дослідник дослідження, висловив занепокоєння щодо цих результатів: “Як суспільство, з штучним інтелектом, який прискорюється так швидко, нам потрібно бути стурбованими щодо потенціалу надмірної довіри.”

Різні зовнішності роботів та їхній вплив

Дослідження також досліджувало, чи впливала зовнішність системи штучного інтелекту на рівні довіри учасників. Дослідники використовували ряд представлень штучного інтелекту, включаючи:

  1. Повнорозмірного, подібного до людини андроїда, присутнього в кімнаті
  2. Подібного до людини робота, проєктованого на екран
  3. Роботів у вигляді коробок без антропоморфних ознак

Цікаво, що хоча подібні до людини роботи мали трохи більший вплив, коли радили учасникам змінити своє рішення, ефект був відносно послідовним для всіх типів представлень штучного інтелекту. Це свідчить про те, що наша схильність довіряти порадам штучного інтелекту поширюється за межі антропоморфних дизайнів і застосовується навіть до явно не людських систем.

Наслідки за межами поля бою

Хоча дослідження використовувало військовий сценарій як фон, наслідки цих результатів простягаються далеко за межі поля бою. Дослідники підкреслюють, що основна проблема – надмірна довіра до штучного інтелекту в умовах неясності – має широке застосування в різних критичних контекстах прийняття рішень.

  • Рішення в правоохоронній діяльності: У правоохоронній діяльності інтеграція штучного інтелекту для оцінки ризиків і підтримки рішень стає дедалі більш поширеною. Результати дослідження піднімають важливі питання про те, як поради штучного інтелекту можуть впливати на судження офіцерів у високотискових ситуаціях, потенційно впливаючи на рішення про використання сили.
  • Сценарії медичної надзвичайності: Медична галузь – ще одна область, де штучний інтелект робить значний внесок, особливо в діагностиці та плануванні лікування. Дослідження Університету Каліфорнії в Мерседі свідчить про необхідність обережності при інтеграції порад штучного інтелекту в процеси прийняття рішень медичних працівників, особливо в ситуаціях надзвичайної ситуації, коли часу мало, а ставки високі.
  • Інші високоризикові контексти прийняття рішень: Окрім цих конкретних прикладів, результати дослідження мають наслідки для будь-якої галузі, де критичні рішення приймаються під тиском і з неповною інформацією. Це може включати фінансову торгівлю, реагування на стихійні лиха або навіть високорівневе політичне і стратегічне прийняття рішень.

Ключовий висновок полягає в тому, що хоча штучний інтелект може бути потужним інструментом для посилення прийняття рішень людиною, ми повинні бути обережні щодо надмірної залежності від цих систем, особливо коли наслідки неправильного рішення можуть бути серйозними.

Психологія довіри до штучного інтелекту

Результати дослідження Університету Каліфорнії в Мерседі піднімають цікаві питання про психологічні фактори, які призводять людей до такого високого рівня довіри до систем штучного інтелекту, навіть у високоризикових ситуаціях.

Деякі фактори можуть сприяти цьому явищу “надмірної довіри до штучного інтелекту”:

  1. Сприйняття штучного інтелекту як внутрішньо об’єктивного і вільного від людських упереджень
  2. Тенденція приписувати більші можливості системам штучного інтелекту, ніж вони фактично володіють
  3. “Автоматичний упередження”, коли люди надають надмірну вагу комп’ютерно-генерованій інформації
  4. Можлива відмова від відповідальності в складних ситуаціях прийняття рішень

Професор Голбрук зазначає, що尽管 учасникам було повідомлено про обмеження штучного інтелекту, вони все одно віддавали перевагу його судженню на загрозливому рівні. Це свідчить про те, що наша довіра до штучного інтелекту може бути глибше вкорінена, ніж раніше вважалося, потенційно переважаючи явні попередження про його помилковість.

Іншим турбуючим аспектом, виявленим дослідженням, є тенденція до узагальнення компетенції штучного інтелекту в різних галузях. Коли системи штучного інтелекту демонструють вражаючі можливості в конкретних областях, існує ризик припустити, що вони будуть однаково ефективними в несуміжних завданнях.

“Ми бачимо, як штучний інтелект робить надзвичайні речі, і ми думаємо, що оскільки він чудовий в цій галузі, він буде чудовим в іншій,” – застерігає професор Голбрук. “Ми не можемо припустити цього. Це все ще пристрої з обмеженими можливостями.”

Це неправильне розуміння може привести до небезпечних ситуацій, коли штучний інтелект довіряється критичними рішеннями в областях, де його можливості не були належним чином перевірені чи доведені.

Дослідження Університету Каліфорнії в Мерседі також спровокувало важливу дискусію серед експертів про майбутнє взаємодії людини і штучного інтелекту, особливо в високоризикових середовищах.

Професор Голбрук, ключова фігура в дослідженні, підкреслює необхідність більш нюансованого підходу до інтеграції штучного інтелекту. Він наголошує, що хоча штучний інтелект може бути потужним інструментом, його не слід вважати заміною людського судження, особливо в критичних ситуаціях.

“Ми повинні мати здорову скептичність щодо штучного інтелекту,” – заявляє Голбрук, “особливо в питаннях життя чи смерті.” Це підкреслює важливість підтримання людського нагляду і остаточної влади у прийнятті рішень в критичних сценаріях.

Результати дослідження призвели до закликів до більш збалансованого підходу до впровадження штучного інтелекту. Експерти пропонують, що організації та особи повинні культивувати “здорову скептичність” щодо систем штучного інтелекту, яка включає:

  1. Визнання конкретних можливостей і обмежень інструментів штучного інтелекту
  2. Збереження критичного мислення при роботі з порадами, згенерованими штучним інтелектом
  3. Регулярна оцінка продуктивності і надійності систем штучного інтелекту, що використовуються
  4. Надання комплексної підготовки щодо правильного використання і інтерпретації виходів штучного інтелекту

Балансування інтеграції штучного інтелекту і людського судження

Оскільки ми продовжимо інтегрувати штучний інтелект у різні аспекти прийняття рішень, відповідальний штучний інтелект і знаходження правильного балансу між використанням можливостей штучного інтелекту і збереженням людського судження є важливим.

Одним із ключових висновків дослідження Університету Каліфорнії в Мерседі є важливість постійного застосування сумніву при взаємодії з системами штучного інтелекту. Це не означає відхилення порад штучного інтелекту одразу, а радше підхід до них з критичним мисленням і оцінкою їхньої актуальності і надійності в кожному конкретному контексті.

Для запобігання надмірній довірі важливо, щоб користувачі систем штучного інтелекту мали чітке розуміння того, що ці системи можуть і не можуть робити. Це включає визнання того, що:

  1. Системи штучного інтелекту тренуються на конкретних наборах даних і можуть не працювати добре поза межами своєї тренувальної області
  2. “Інтелект” штучного інтелекту не обов’язково включає в себе етичне судження або реальне світове усвідомлення
  3. Штучний інтелект може робити помилки або генерувати упереджені результати, особливо при роботі з новими ситуаціями

Стратегії для відповідального впровадження штучного інтелекту в критичних галузях

Організації, які планують інтегрувати штучний інтелект у критичні процеси прийняття рішень, повинні розглянути наступні стратегії:

  1. Реалізувати ретельне тестування і підтвердження процедур для систем штучного інтелекту перед розгортанням
  2. Надати комплексну підготовку людським операторам щодо можливостей і обмежень інструментів штучного інтелекту
  3. Установити чіткі протоколи щодо того, коли і як вхід штучного інтелекту повинен бути використаний у процесах прийняття рішень
  4. Збереження людського нагляду і можливості відхилення порад штучного інтелекту, коли це необхідно
  5. Регулярно переглядати і оновлювати системи штучного інтелекту, щоб забезпечити їхню подальшу надійність і актуальність

Основне

Дослідження Університету Каліфорнії в Мерседі служить важливим сигналом про потенційні небезпеки надмірної довіри до штучного інтелекту, особливо в високоризикових ситуаціях. Оскільки ми стоїмо на порозі широкої інтеграції штучного інтелекту в різні галузі, важливо, щоб ми підходили до цієї технологічної революції з ентузіазмом і обережністю.

Майбутнє співробітництва людини і штучного інтелекту в прийнятті рішень буде потребувати деликатного балансу. З одного боку, нам потрібно використовувати величезний потенціал штучного інтелекту для обробки великих обсягів даних і надання цінних інсайтів. З іншого боку, нам потрібно збереження здорової скептичності і збереження незамінних елементів людського судження, включаючи етичне судження, контекстне розуміння і здатність приймати нюансовані рішення в складних реальних сценаріях.

Оскільки ми рухаємось вперед, подальші дослідження, відкрита дискусія і ретельне політичне рішення будуть важливими для формування майбутнього, де штучний інтелект покращує, а не замінює, можливості людини приймати рішення. Культивуючи культуру інформованої скептичності і відповідального впровадження штучного інтелекту, ми можемо працювати над майбутнім, де люди і штучний інтелект ефективно співпрацюють, використовуючи сильні сторони обох для прийняття кращих, більш інформованих рішень у всіх аспектах життя.

Алекс Макфарленд - журналіст та письменник з питань штучного інтелекту, який досліджує останні розробки в галузі штучного інтелекту. Він співпрацював з численними стартапами та виданнями з штучного інтелекту у світі.