Connect with us

Штучка AI Не В провалі. А в тому, що провал відбувається занадто повільно.

Лідери думок

Штучка AI Не В провалі. А в тому, що провал відбувається занадто повільно.

mm
A conceptual photograph showing a hand approaching a transparent glass interface with a glowing green speedometer gauge and an upward-pointing arrow. The background shows an out-of-focus, tangled knot of black wires and red light.

Штучка AI Не В провалі. А в тому, що провал відбувається занадто повільно.

Штучний інтелект (AI) трансформує, як організації працюють, інновують та ростуть. У різних галузях організації використовують AI для оптимізації робочих процесів, відкриття нових можливостей та підтримки швидкого та впевненого прийняття рішень. Коли AI тихо стає двигуном сучасної продуктивності, вона допомагає організаціям досягати більшої гнучкості та масштабу.

Однак, попри численні вимірювані переваги AI, відбувається щось несподіване. Багато підприємств натикаються на перешкоду. Замість прискорення інновацій, деякі команди загрузли в складності, управлінні ризиками та зростаючому страху перед невідомим.

Чому? Тому що ми думаємо про це неправильно.

AI часто неправильно розуміється як технологія, яку потрібно повністю контролювати, перш ніж їй можна довіряти. Це випливає з помилкової віри в те, що певність є передумовою безпеки. Але таке тлумачення не враховує суті AI та того, як вона доставляє цінність. AI – це адаптивний інструмент, призначений для навчання та еволюції під час використання. Розглядати її як традиційне програмне забезпечення – це неправильне тлумачення її природи та підірвання її потенціалу.

У прагненні використовувати AI відповідально, багато організацій ненавмисно перетворили мінімізацію ризику на瓶яшку. У різних галузях команди вагаюся розгортати AI, якщо вони не можуть розібрати, пояснити та виправдати кожен шар його процесу прийняття рішень, часто до нереального рівня. Хоча такий рівень уважності відображає доброзичливі наміри, він часто знімає саму мету AI: прискорити розуміння, посилити команди та вирішити проблеми у масштабі.

Прийшов час перенастроїти, перейшовши від вимоги повного контролю до моделі, яка підкреслює стійкість, продуктивність та практичну пояснюваність – без зупинки інновацій.

Страх перед чорною скринькою блокує прогрес

Люди мають природну незручність з системами, яких вони не повністю розуміють, а інструменти AI – особливо великі, генеративні моделі – часто працюють способами, які суперечать легкій пояснюваності. У результаті багато лідерів потрапляють у пастку: якщо вони не можуть повністю пояснити кожне рішення AI, система не може бути довіреною.

Таким чином, багато організацій перевантажують процеси нагляду, додаючи шари міжфункціональних оглядів, перевірок відповідності та аудитів пояснюваності, навіть для низькоризикових випадків використання. Коли команди розглядають пояснюваність як необхідність відкриття кожної чорної скриньки, вони утримують реалізацію AI в безкінечних циклах огляду. Це створює “операційну параліч” у якому команди стають настільки боязкими робити щось неправильне з AI, що вони припиняють робити щось взагалі, що призводить до поступового зниження імпульсу, зупинки ініціатив та, врешті-решт, втраченої можливості.

Проблема не полягає в намірах контролю; це припущення, що мінімізація ризику повинна дорівнювати контролю. На практиці проектування систем AI для стійкості, а не досконалості, є більш ефективним підходом. Ключ – відмовитися від процедурного підходу на користь результатно-орієнтованого мислення.

Стійкість у AI означає прийняття того, що помилки траплятимуться, та будівництво поручнів, які можуть виявити та виправити їх. Це означає зміну розмови з того, як запобігти кожній можливій помилці, до того, як забезпечити швидке виявлення та втручання, коли щось йде не так.

Більшість сучасних систем побудовані з розумінням того, що певний рівень помилок траплятиметься. Наприклад, інструменти кібербезпеки не очікується бути 100% непроникними. Вони не призначені для цього. Замість цього вони призначені для виявлення, реагування та створення швидких протоколів відновлення. Такі самі очікування повинні застосовуватися до AI.

Вимога повної видимості кожного рішення AI є непрактичною та може бути контрпродуктивною для створення цінності. Замість цього організації повинні відстоювати “показникову пояснюваність”, яка забезпечує достатній контекст та нагляд для виявлення помилок та застосування заходів безпеки без зупинки інновацій підприємства.

Не перекладайте розгортання AI

Організації повинні прийняти повну взаємодію у реалізації AI, незалежно від випадку використання. Замість того, щоб бути відволіканням, повна взаємодія забезпечує безшовну інтеграцію та розблокування більшої цінності між системами. У майбутньому, у підприємствах, можливо, ми побачимо віртуальні армії агентів AI, які працюють разом до спільних цілей.

Цей погляд полягає у тому, щоб правильно розмістити пояснюваність, щоб вона відповідала рівню ризику – зупинити розгляд кожного випадку використання AI, як якщо б він керував автономним транспортним засобом. Команди можуть досягти цього, проектуючи системи AI, які є продуктивними, підзвітними та узгодженими з людським наміром без ускладнення розгортання.

Деякі практичні стратегії включають:

  • Розгортання AI там, де люди вже борються: Використовуйте AI для посилення людського прийняття рішень у складних, високотехнологічних областях, таких як розподіл ресурсів, пріоритезація завдань або управління запасами, де швидкість та масштаб мають значення більше, ніж повна певність.
  • Визначення метрик успіху AI: Замість того, щоб пояснювати кожну модель, визначте, які хороші результати виглядають. Чи покращуються графіки? Чи зменшується повторна робота? Чи користувачі приймають пропозиції AI частіше? Ці індикатори пропонують чіткіше уявлення про те, як добре працює AI, ніж розбирання деталей того, як модель приймає рішення.
  • Встановлення порогів довіри: Встановіть толерантність до того, коли вивід AI можна автоматично прийняти, позначити або відправити на людський огляд, і побудуйте зворотний зв’язок, щоб допомогти системі навчатися та покращуватися з часом.
  • Навчання команд запитувати правильні питання: Замість того, щоб зробити кожну команду експертом з AI, зосередьтеся на навчанні їх запитувати правильні питання, такі як яка проблема вирішується за допомогою AI, які ризики мають значення найбільш, і як ефективність буде відстежуватися.
  • Пріоритет людського розуму: Навіть найкращі системи AI користуються з людського нагляду. Будуйте робочі процеси, які дозволяють людям підтверджувати, виправляти або перевершувати AI як спосіб створення спільної підзвітності.

Цей підхід можна порівняти з водінням автомобіля. Більшість з нас не розуміють, як працює трансмісія, як спалювання палива прискорює рух, або як датчики виявляють附近 транспортних засобів, але це не зупиняє нас від водіння. Що ми покладаємось на це – це панель приладів: спрощений інтерфейс, який забезпечує інформацію, необхідну для безпечної експлуатації, таку як швидкість, рівень палива та попередження про технічне обслуговування.

Системи AI повинні керуватися тим же способом. Нам не потрібно відкривати капот кожного разу, коли двигун працює. Що потрібно, це чіткий набір індикаторів, які показують, коли щось пішло не так, де людське втручання може бути необхідним, і які наступні кроки зробити. Ця модель дозволяє організаціям зосередитися на нагляді там, де це має значення, без загрузання в технічній складності.

Перестаньте заважати собі

AI ніколи не буде бездоганним. І якщо організації вимагають від нього стандарту досконалості, який жодна людська команда не може задовольнити, вони ризикують втрачати можливість переосмислити роботу, прискорити прийняття рішень та розблокувати потенціал по всьому підприємству.

Зосереджуючись на стійкості над контролем, приймаючи пояснюваність на рівні панелі приладів та адаптуючи нагляд до контексту, ми можемо перестати надмірно думати про AI та почати створювати більше успіху з ним.

Бет Вікс є виконавчим віце-президентом розвитку в Planview. Вона очолює команду розробки програмного забезпечення для продуктів Planview, які забезпечують стратегічне управління портфелем, автоматизацію професійних послуг, корпоративну архітектуру та можливості ідеалізації.

Бет обіймала посади виконавчого рівня в сфері програмного забезпечення протягом останніх 20 років і допомогла компаніям з програмним забезпеченням трансформувати свої корпоративні продукти з локального розміщення в добре спроектовані рішення Software as a Service (SaaS) і Platform as a Service (PaaS). Вона також має досвід будівництва високопродуктивних і співробітницьких команд, які розподілені по всьому світу в Північній Америці, EMEA та Індії.

До того, як приєднатися до Planview у 2017 році, Бет була старшим віце-президентом інженерії продукту та хмарних операцій у WP Engine, очолюючи розробку продукту та хмарні операції для кількох глобальних центрів даних, які приймають понад 500 000 веб-сайтів. Вона також обіймала керівні посади в Zilliant, Vignette (придбана Open Text) та Intergraph.