Лідери думок
Чому компанії повинні дотримуватися підходу, заснованого на цінностях, до управління штучним інтелектом

У вересні 2025 року вперше всі члени країн Організації Об’єднаних Націй зібралися, щоб обговорити міжнародне управління штучним інтелектом; багато з них були представлені знову у лютому на саміті впливу штучного інтелекту в Делі. Ця подія призвела до створення двох нових органів, центрованих на управлінні штучним інтелектом; але це був, у найкращому випадку, символічний успіх.
Нові механізми Організації Об’єднаних Націй були розроблені для забезпечення консенсусу: вони уникають спірних питань, таких як військове використання штучного інтелекту, і не мають чітких джерел фінансування та повноважень щодо виконання. Це не повинно бути несподіванкою для досвідчених спостерігачів. Сьогоднішня Організація Об’єднаних Націй не має можливості швидко рухатися або забезпечувати універсальну відповідність своїм рішенням, що робить її складною платформою для здійснення реальних змін.
Це відповідає добре встановленому шаблону. Незважаючи на роки розрізнених спроб побудувати консенсус щодо правил штучного інтелекту, не було жодних значних міжнародних угод, що створює порожнину, в якій окремі країни та блоки були змушені розробляти自己的 правила. Однак ефективне управління штучним інтелектом є важливим, якщо ми хочемо побачити його широке впровадження, довіру громадськості та використання способами, які забезпечують тривалу соціальну та економічну вигоду.
Зроби і почини
Для глобальних компаній, які будують і експлуатують системи штучного інтелекту, відсутність загальних механізмів управління є проблематичною. Вони хочуть розгорнути системи штучного інтелекту по всьому світу, але жодна з двох юрисдикцій не дотримується одного й того ж набору правил. Тому їм доводиться створювати загальну структуру управління навколо своєї системи, а потім перебудовувати її з нуля в кожній країні, в якій вони діють, щоб забезпечити відповідність місцевим законам і правилам. Цей підхід створює величезну кількість додаткової роботи, робить ініціативи штучного інтелекту більш дорогими і схильними до затримок, і ослаблює здатність глобальних фірм реалізовувати економію масштабу та спільно використовувати ефективні інструменти з користувачами по всьому світу.
Є, однак, альтернатива. Для фірм, які хочуть оптимізувати свій підхід, найкращим варіантом може бути побудова структури управління штучним інтелектом, яка враховує загальні етичні принципи в різних регіонах, забезпечуючи те, що вони відповідають високим стандартам скрізь у плані захисту свободи, приватності та безпеки окремих осіб. Цей метод представляє потужний спосіб для бізнесу штучного інтелекту збільшити довіру громадськості до своєї технології, зміцнити свою клієнтську базу та реалізувати потенційні вигоди штучного інтелекту для суспільства.
Шість ключових цінностей для управління штучним інтелектом
Для будь-якої організації, яка цікавиться прийняттям підходу, заснованого на цінностях, до управління штучним інтелектом, я б порадив використовувати шість ключових цінностей, яких ми дотримуємося: підзвітність, пояснюваність, прозорість, справедливість, безпека та оскаржуваність.
Ми обрали ці цінності, оскільки вони охоплюють усі основні області життєвого циклу системи штучного інтелекту і оскільки вони вже були кодифіковані в різних міжнародних і національних стандартах, пов’язаних зі штучним інтелектом, таких як ISO/IEC 42001 Міжнародної організації зі стандартизації та Книга штучного інтелекту для уряду Великої Британії.
Почнімо з початку, підзвітність означає знання того, хто відповідає за що на кожному етапі життєвого циклу штучного інтелекту. Без чіткої власності важливі контролю можуть бути опущені, оскільки жодна особа чи команда не несе кінцевої відповідальності. Організації повинні призначити старших, іменованих власників – таких як їхній головний офіцер зі штучного інтелекту – системам штучного інтелекту та ключовим етапам і використовувати модель управління на основі ризику, застосовуючи той же рівень уваги до інструментів третіх сторін, що й до тих, які розроблені всередині компанії. Це означає розуміння умов постачальників, обмежень та зобов’язань так само добре, як і їхніх власних систем.
Організація економічного співробітництва та розвитку (ОЕСР) добре висвітлює це у своїй керівній інформації щодо підвищення підзвітності у штучному інтелекті, яка рекомендує організаціям створити «механізми для інтеграції процесу управління ризиками штучного інтелекту в загальне управління організацією, створюючи культуру управління ризиками як всередині організації, так і на всьому ланцюзі вартості штучного інтелекту».
Далі йде пояснюваність. Організації повинні бути здатні показати, як система штучного інтелекту приймає рішення. Для цього потрібні механізми для документації та відстеження процесу прийняття рішень, поряд з чіткими записами про проектування системи, навчальних даних та процесів прийняття рішень. Взяті разом, це дозволяє командам зрозуміти походження інформації від початку системи до її розгортання.
Справедливість зосереджена на тому, щоб системи штучного інтелекту забезпечували справедливі результати та не відтворювали чи посилювали існуючі упередження. Без свідомих перевірок системи можуть завдавати шкоди, забезпечуючи перекошені результати – особливу проблему в таких високоефективних областях, як набір персоналу, охорона здоров’я та кримінальна юстиція. Для пом’якшення цього організаціям слід реалізувати заходи виявлення упереджень, переглядати виводи регулярно по відповідних групах та проектувати структури управління, які можуть забезпечити місцеві вимоги щодо недискримінації. На практиці це означає будівництво систем для задоволення найвищого юридичного стандарту, з яким вони можуть зіткнутися, включаючи зобов’язання згідно з законами, такими як Закон про рівність 2010 року Великої Британії та Хартія фундаментальних прав ЄС.
Прозорість полягає у тому, щоб забезпечити ясність як для користувачів, так і для регуляторів. Люди повинні розуміти, коли використовується штучний інтелект, яку роль він грає у процесі прийняття рішень та які дані лежать в його основі. Практичною точкою відліку є стандартизація документації по системах штучного інтелекту, підтримуваної внутрішніми інструментами, такими як картки моделей: короткі документи, що супроводжують моделі машинного навчання, які пояснюють контекст, у якому ці моделі призначені для використання, деталі процедур оцінки продуктивності та інші відповідні відомості. Без прозорості користувачі не можуть оскаржувати несправедливі результати, регулятори не можуть втручатися ефективно, а шкідливі впливи можуть бути приховані.
Безпека полягає у захисті систем штучного інтелекту від несанкціонованого доступу, маніпулювання чи непередбачуваної поведінки. Якщо безпека слабка, штучний інтелект може поставити організації, користувачів та їхні дані під ризик, піддаючи їх фінансовій та репутаційній шкоді. Організаціям слід визначити пороги продуктивності та точності, піддати системи тестуванню під реалістичних умов та включити тестування червоними командами для виявлення уразливостей.
Нарешті, оскаржуваність забезпечує людям чіткий та доступний спосіб оскаржувати або апелювати рішення, прийняті штучним інтелектом. Без цього постраждалі користувачі не мають можливості оскаржувати рішення, а проблеми можуть ніколи не бути виявлені чи вирішені. Організаціям слід забезпечити канали повідомлень на місці використання, призначити старших власників для управління скаргами та забезпечити те, що системи можуть бути зупинені, переглянуті або оновлені, якщо це необхідно.
Які є переваги структури, заснованої на цінностях?
Є дві потужні причини для прийняття цього підходу, заснованого на цінностях, до управління штучним інтелектом. По-перше, тому що ті, хто будує та розгортає системи штучного інтелекту, мають етичну відповідальність перед людьми та організаціями, які постраждали від них; і, по-друге, тому що це більш ефективний спосіб реалізації обіцяних переваг штучного інтелекту на практиці.
Користувачі систем штучного інтелекту, як корпоративні, так і індивідуальні, покладають неявну довіру до своїх творців, щоб вони не зловживали особистими даними або не піддавали їх непотрібному ризику. Коли організації порушують цю довіру, їм стає дуже складно утримувати цих користувачів. У кінцевому підсумку, якщо люди не довіряють системам штучного інтелекту та не бачать чітких переваг, які вони забезпечують, вони не погодяться на їхнє впровадження. Це призведе до більшої соціальної та економічної роздільності, і ми пропустимо багато можливостей, представлених цією технологією.
З іншого боку, компанії, які застосовують структуру, засновану на цінностях, скрізь – включаючи регіони з менш суворими вимогами до управління – можуть продемонструвати клієнтам, інвесторам та регуляторам, що вони дотримуються вищого стандарту, ніж базова відповідність вимогам. Це будує довіру, залучення та, в кінцевому підсумку, бізнес-успіх.
Сильне управління штучним інтелектом є творцем цінності, а не тягарем для відповідності. Воно дозволяє підприємствам швидше виводити нові продукти на ринок, зменшувати свою ризикованість та масштабувати свої рішення по кількох ринках з впевненістю.
Звіт McKinsey «Стан штучного інтелекту» виявив, що «нагляд генерального директора за управлінням штучним інтелектом … є одним з елементів, найбільш корельованих з вищим самооцінним впливом на нижню межу організації від використання загального штучного інтелекту», підкреслюючи комерційні переваги такого підходу. У цьому відношенні будівництво сильних етичних структур у системи штучного інтелекту представляє просвітлену самозахист.
Поза цим, однак, це просто правильна річ, яку потрібно зробити. Ми побудували нашу глобальну етичну політику штучного інтелекту навколо того самого принципу: що просунуті технології повинні служити людям та суспільству, а не навпаки. Це відображає ширшу бачення Society 5.0: людоцентровану модель інновацій, яка намагається поєднати економічний прогрес з вирішенням соціальних проблем.
Якщо такі технології, як штучний інтелект, мають сприяти щасливішому, більш гармонійному суспільству, вони повинні бути побудовані на сильних етичних засадах. Це починається з акценту не лише на стандартах, яким повинні відповідати організації, але й на стандартах, яких вони хочуть досягти.












