Connect with us

Чому сліпе довіра до штучного інтелекту може стати вашим найгіршим рішенням

Лідери думок

Чому сліпе довіра до штучного інтелекту може стати вашим найгіршим рішенням

mm

У 1979 році у навчальному посібнику IBM було зроблено просте, але вражаюче попередження: «Комп’ютер ніколи не може бути відповідальним; тому комп’ютер ніколи не повинен приймати рішення щодо управління». І більш ніж через 45 років це твердження здається проігнорованим пророчеством.

У 2025 році штучний інтелект не тільки допомагає, а й приймає автономні рішення, і в багатьох випадках він не тільки приймає рішення, а й керує. Насправді, близько 74% керівників компанії більш впевнені в штучному інтелекті щодо бізнес-порад порівняно з колегами або друзями, 38% довіряють штучному інтелектові приймати бізнес-рішення від їхнього імені, і 44% віддають перевагу його аргументації над своїми власними висновками. Зміна очевидна; штучний інтелект став новим інстинктом.

Але є проблема. Довіра до штучного інтелекту можлива лише тоді, коли алгоритм гідний довіри. І коли довіра надається сліпо, особливо в чорних скриньках, які ми не можемо зрозуміти або перевірити, це ризик, замаскований під прогрес. Як і в людському керівництві, впевненість без відповідальності небезпечна, і коли штучний інтелект помиляється, хто бере на себе відповідальність?

Коли інструмент стає босом

Що почалося як інструмент для оптимізації операцій у сфері обслуговування тепер використовується в основних бізнес-процесах. Але компанії не тільки використовують штучний інтелект для підтримки людських рішень; вони тепер довіряють штучному інтелекту, особливо генеративному штучному інтелекту (GenAI), приймати бізнес-рішення, від бізнес-стратегії до обслуговування клієнтів, фінансового моделювання та інше.

Ця зміна зрозуміла. Штучний інтелект не відволікається, не забуває інструкцій або не дозволяє емоціям затуманювати його судження. Для багатьох компаній це пропонує привабливу альтернативу ризикам людської помилки. Однак залишається ключове питання: можна довіряти штучному інтелекту бути босом і приймати рішення самостійно?

Відповідь не проста, але одним із способів розглянути це питання є те, як ми оцінюємо довіру людей: їхню компетентність, надійність і чітку намір. Ті самі принципи застосовуються до штучного інтелекту.

Щоб бути гідним довіри, система штучного інтелекту повинна забезпечувати результати, які є точними, своєчасними та відповідними. Але рівень довіри та межа для помилок варіюються залежно від контексту. Наприклад, при діагностиці раку за допомогою медичних зображень рівень помилки дуже низький. Навпаки, при генерації ідей для маркетингової кампанії є більше місця для експериментів.

Ми бачили, як штучний інтелект використовувався для прийняття автономних рішень у сфері кредитних затверджень, коли банки використовують алгоритми для визначення права на кредит у секунди. Рітейлери використовують штучний інтелект для управління запасами та ціноутворення без людського втручання. Але ми також бачили провали — наприклад, самохідні автомобілі, які неправильно оцінюють дорожні умови.

Одна розповідь про застереження показує ризики розміщення надто великої довіри в штучний інтелект без належного нагляду. Дерек Моблі — чорношкірий чоловік понад 40 років — подав заявку на понад 100 посад через систему штучного інтелекту Workday з 2017 року і був відхилений кожен раз. Він звинуватив у дискримінації через вік і расу. У травні 2025 року суд дозволив національний колективний позов. Клас включає всіх заявників віком 40+ років, які подали заявку через Workday з вересня 2020 року і були відхилені на підставі рекомендацій штучного інтелекту.

Цей приклад підкреслює важливу думку: штучний інтелект позбавлений емоційного інтелекту, моральної доводності або природного відчуття справедливості. І оскільки штучний інтелект переходить від помічника людини до незалежного прийняття рішень, зараз існує пробіл у відповідальності. Коли алгоритми допускаються до виконання без людських перевірок і балансів, вони можуть і приймають погані рішення та посилюють існуючі упередження.

Питання щодо чорних скриньок

Чорні скриньки — коли система та логіка штучного інтелекту не повністю зрозумілі — стають дедалі більш поширеними. Хоча вони можуть мати видимі шари, розробники та користувачі все одно не можуть бачити, що відбувається на кожному шарі, що робить їх непрозорими.

Наприклад, ChatGPT є чорною скринькою, оскільки навіть його творці не впевнені, як він працює, оскільки він навчений на величезних наборах даних. Але через брак прозорості, чи коли-небудь прийнятно «довіряти» моделі штучного інтелекту без повного розуміння того, як вона працює?

У короткому вигляді, ні: галюцинації штучного інтелекту стають гіршими. Це означає, що в високих ставках, таких як фінансові рішення, юридичні поради та медичні висновки, штучний інтелект вимагає суворої перевірки, перехресної перевірки та людського нагляду.

Судовий позов Disney і Universal, поданий у червні 2025 року, підкреслює цю думку. Студії стверджують, що інструменти генеративного штучного інтелекту були навчені на матеріалах, захищених авторським правом, для створення нового контенту без згоди. Цей випадок підкреслює нову реальність: коли компанії розгортають моделі штучного інтелекту, яких вони не повністю розуміють, вони можуть бути відповідальними за рішення, прийняті ними. І невідання не є захистом; це зобов’язання.

Однак ми часто покладаємо довіру в складні системи, яких ми не розуміємо. Наприклад, більшість пасажирів авіарейсів не можуть пояснити фізику польоту, проте люди сідають на літаки з впевненістю, оскільки ми побудували довіру через повторну експозицію, колективний досвід та сильну історію безпеки.

Той самий логіка знову може застосовуватися до штучного інтелекту. Нерозумно очікувати, що кожен буде розуміти, як працюють великі мовині моделі. Але довіра не будується на розумінні; вона вимагає знайомства, прозорості щодо обмежень та доведеної моделі надійної роботи. Інженери з аерокосмічної галузі знають, які тести потрібно проводити, і які помилки виглядають, і ми повинні вимагати того самого від постачальників генеративного штучного інтелекту. Основний принцип штучного інтелекту повинен бути довірою, але перевіркою.

Крім того, бізнес-лідери часто вважають, що штучний інтелект буде срібною кулею, яка вирішить всі їхні бізнес-проблеми. Однак цей міф переслідує багато компаній при інтеграції штучного інтелекту. Лідери можуть віддавати перевагу складним і складним моделям, але простіше рішення може бути краще підходить, якщо вони провели аналіз витрат і вигод. Штучний інтелект — потужний інструмент, але він не підходить для кожної задачі. Компанії повинні визнати проблему, перш ніж вибрати інструмент.

Відновлення довіри до штучного інтелекту

Хоча ясно, що сліпе довіра до штучного інтелекту є проблемою, системи та алгоритми штучного інтелекту можуть бути найкращим інструментом, який колись мала компанія — якщо їх використовувати безпечно.

Для бізнесів, які хочуть використовувати інструменти штучного інтелекту, перша річ, яку потрібно дослідити, — це ділова активність постачальника. Коли бізнес визначає сферу, яка могла б виграти від ефективності штучного інтелекту, бізнес-лідери повинні оцінити постачальників не тільки на основі заяв про продуктивність, а й щодо засобів управління. Це включає перегляд того, як розробляються моделі, чи є засоби пояснення, як відстежується упередження та чи доступні аудиторські сліди. Вибір постачальника з прозорими процесами є важливим для мінімізації ризику з самого початку.

Можливо, найважливіша річ при будівництві довіри до систем штучного інтелекту — забезпечення управління даними з чистими, репрезентативними та добре документованими наборами даних. Як каже прислів’я: «сміття у, сміття вийде». Тому якщо дані неповні, упереджені або неточні, навіть найрозробленіша модель надасть ненадійні результати.

Щоб забезпечити, що дані готові для штучного інтелекту, компанії повинні:

  • Перевірити наявні набори даних на пробіли та дублікати, а також перевірити джерела упередження

  • Стандартизувати формати даних

  • Реалізувати політику управління даними, яка визначає володіння та контроль доступу

Інший ключовий крок для бізнес-лідерів — проведення стрес-тестування під різними умовами. Хоча модель може добре працювати в контрольованих тестах, критично важливо зрозуміти обмеження моделі, коли вона зустрічає нові дані або входи, яких вона не очікувала. Саме тому важливо тестувати штучний інтелект у різних ситуаціях, з різними типами користувачів, різними випадками використання та даними з різних періодів часу.

Валідация штучного інтелекту також є постійним завданням. Коли дані змінюються з часом, навіть надійні моделі штучного інтелекту можуть втрачати точність. Саме тому регулярний моніторинг має значення. Компанії повинні моніторити, як модель працює з дня на день: чи вона все ще точна? Чи збільшується кількість хибних позитивів? І як і будь-яка система, яка потребує технічного обслуговування, моделі повинні бути повторно навчені регулярно зі свіжими даними, щоб залишатися актуальними.

Штучний інтелект не є довірливим чи недовірливим; він формується даними, яких він вчиться, людьми, які його роблять, та правилами, які ним керують. Коли штучний інтелект розвивається з корисного інструменту до бізнес-радника, лідери мають можливість не тільки використовувати його, а й робити це вдумливо та етично. Якщо ми робимо це правильно, штучний інтелект буде не тільки потужним у майбутньому, а й відповідальним, з чіткою відповідальністю, яка лежить на його розробнику та наглядачеві.

Мартін Левіт є старшим віце-президентом (SVP) Nisum, глобальним консалтинговим партнером, спеціалізованим на цифровій комерції та еволюції, який створює платформи, що працюють на основі штучного інтелекту, та індивідуальні рішення, які відкривають зростання, оптимізують операції та створюють довгострокову вартість.

З великим досвідом у вирішенні складних бізнес-викликів інноваційними рішеннями, інтереси Мартіна включають розвиток та навчання тих, хто з ним працює, та створення зв'язків, які створюють нові та цікаві можливості, забезпечення ефективного лідерства, стратегічного бачення та щоденної уваги до створення інноваційної культури під девізом компанії "Будуємо успіх разом".