Connect with us

Практичний посібник із доставки відповідальної штучного інтелекту

Лідери думок

Практичний посібник із доставки відповідальної штучного інтелекту

mm

Розгортання штучного інтелекту (AI) масштабується за межі ранніх пілотних фаз до повністю інтегрованих рішень, що驱люють виробництво та трансформацію підприємства. Перед цим виконавці стикаються з складним завданням: перевести AI з доказу концепції до ядра щоденних операцій. Цей зсув вимагає від них відповіді на нові питання, починаючи від того, як розробити, розгорнути та використовувати AI відповідально, щоб створити довірливу основу, на якій можна масштабувати.

Відповідальний AI полягає в забезпеченні того, щоб AI був корисним, не шкодячи людям, організаціям та суспільству. Хоча сприйняття може полягати в тому, що це може сповільнити життєвий цикл розробки, на практиці це може зробити інновації сильнішими. Розгортання Відповідального AI може допомогти зменшити кількість дорогих провалів, дозволити швидшу адаптацію та довіру, забезпечити системи, готові до регулювання, та покращити стійкість.

Однак, розуміння того, як організації можуть розробити, розгорнути та прийняти Відповідальний AI, є ключем до забезпечення його фундаментальної практики та повної інтеграції. Тут ми надаємо практичний посібник щодо того, як компанії можуть зробити це, забезпечуючи людський нагляд з ранніх стадій проектування до розгортання, моніторингу, оцінки ризику та подальшої демонтажу.

Ті, хто ставиться до Відповідального AI як до післядуми, ризикують регулюванням, пошкодженням репутації та ерозією довіри клієнтів. Натомість ті, хто вбудовує його з самого початку, краще позиціонуються для масштабування AI сталим чином.

Визначення п’яти засад для інтеграції Відповідального AI

У центрі будь-якої стратегії Відповідального AI лежить набір основних принципів, які повинні керувати розробкою, розгортанням, оцінкою та управлінням. Вплив цих принципів буде формувати практичне управління, управління ризиками та практики дотримання законодавства, що охороняють людей та захищають вартість бренду.

Для великих організацій їм потрібно працювати у складі команд та з зовнішніми партнерами, щоб забезпечити його інтеграцію. Як такий, існують п’ять ключових принципів, які бізнес може прийняти, щоб спрямувати свої ініціативи AI до довіри, дотримання законодавства та етичних результатів.

По-перше, відповідальність. Хтось повинен нести відповідальність за результат кожного важливого системи AI, і повинна бути людина або команда, відповідальна з початку до кінця. Почніть з простого інвентаризації, автоматизуйте для масштабування та почніть перелік систем AI, їхніх цілей, джерел даних та власників. Також важливо мати план на випадок, коли щось піде не так. Це суттєво важливо знати, як зупинити та як розслідувати та пом’якшити проблеми.

По-друге, оцінка справедливості AI та його потенційного впливу на людей є важливою. Не покладайтеся виключно на технічні метрики та бути обізнаними про те, що результати AI можуть відрізнятися між групами та ненавмисно нашкодити комусь. Це критично важливо для високоризикових випадків використання в таких областях, як прийняття на роботу, кредитування або охорона здоров’я. Використовуйте тести даних, коли це можливо, та включайте людську перевірку та підстави для виводу.

По-третє, безпека є суттєво важливою. Загрози системам AI продовжують еволюціонувати, тепер включаючи атаки на основі промпта або агента. Це суттєво важливо звернути увагу на ці ризики та працювати з командами безпеки для моделювання цих потенційних атак. Будуйте безпеку у проектуванні, обмежуйте доступ AI до інших систем та даних та проводьте постійне тестування навіть після запуску.

Четверто, конфіденційність є суттєво важливою. Ця проблема виходить за рамки початкових навчальних даних, і конфіденційність повинна бути захищена на кожному етапі. Розгляньте конфіденційність у промптах користувача, журналах розмов та виводах, згенерованих AI, оскільки всі вони можуть містити приватну інформацію. Проектуйте системи для збору лише тих даних, які необхідні, встановлюйте суворі правила доступу та зберігання, та проводьте огляди конфіденційності для застосунків з вищим рівнем ризику.

Останнє, прозорість та надання контролю, який адаптується до зацікавлених сторін, є суттєво важливим. Що клієнти повинні знати, відрізняється від розробників AI. Натомість користувачі повинні знати, коли вони взаємодіють з AI, та розуміти його обмеження. Внутрішні команди потребують ясної документації щодо того, як було побудовано AI та як воно працює. Прозорість системи AI сприяє спільному нагляду та довірі до можливостей системи.

Пізнання різниць: Відповідальний AI проти управління AI

Хоча Відповідальний AI та управління AI часто використовуються як взаємозамінні терміни, існують ключові відмінності. Відповідальний AI є набором цілісних практик та принципів для прийняття довірливих рішень протягом розробки, розгортання та використання AI. Це зосереджується на забезпечення можливостей, таких як п’ять засад вище, для мінімізації ризиків та максимізації вигод AI.

Управління AI, з іншого боку, є набором політик, процедур та практик, спрямованих на забезпечення позитивних результатів та зменшення ймовірності шкоди. Це зосереджується на встановленні відповідних організаційних та технічних засобів контролю для забезпечення відповідального та етичного AI, часто з акцентом на відповідальності та дотриманні законодавства та організаційних політик.

Організації краще позиціонуються для масштабування AI відповідально, зберігаючи довіру та регулювання, коли вони розуміють, що ці два є окремими, але пов’язаними. Крім того, хоча деякі дії щодо відповідальності та управління вимагаються законом, деякі ні. Наприклад, закони, які накладають обмеження на роботу жінок в певних країнах. Тому обидва є необхідними для комплексного, збалансованого підходу до Відповідального AI.

Важливість гнучкого управління

Як AI поширюється, регулятори втручаються з рамками управління, які виходять за межі добровільних керівних принципів. Регулювання, такі як Закон Європейського Союзу про штучний інтелект, ставлять ризик-орієнтоване регулювання в центр управління AI. Натомість ніж регулювати технологію однорідно, Закон класифікує системи AI на кілька рівнів ризику, які визнають потенційну шкоду на основі різних випадків використання. Наприклад, система AI для відбору працівників проти двигуна рекомендацій для покупок. Це означає, що управління, документація та засоби захисту повинні відповідати контексту та застосуванню AI.

Інші юрисдикції також визначили рамки для управління AI. За цим звітом IAPP, Сінгапур пропагує гнучкий підхід з інструментами, такими як його рамка управління AI, що підкреслює тестування та прозорість над суворими мандатами. Закон Південної Кореї про базовий AI також поєднує нагляд з простором для інновацій. І всередині галузей це відрізняється. Фінансові послуги вже давно стикаються з суворими стандартами безпеки та справедливості, тоді як системи охорони здоров’я AI повинні відповідати нормативним вимогам до медичних пристроїв. Продукти споживчої техніки також підпадають під закони про конфіденційність та захист споживачів, з кожною областю, що вимагає регулювання, адаптованого до її профілю ризику та суспільних очікувань.

Отже, підхід “один розмір для всіх” до управління AI не працює, оскільки галузі та країні відрізняються за типами шкоди, зацікавленими сторонами та законодавчими рамками, під якими вони діють. Тому потрібно бути гнучким.

Як керувати автономним AI

Як AI вступає в нову еру, переходячи від вузьких прогнозних двигунів до агентного AI, систем, здатних планувати, адаптуватися та виконувати автономні дії, це супроводжується новими ризиками.

Наприклад, розгляньте агентний AI, який автономно виконує фінансові транзакції або рішення щодо прийому на роботу. Якщо він неправильно класифікує транзакцію або робить рекомендацію щодо прийому на роботу, яка вбудовує упередження, бізнес-консеквенції будуть серйозними, від фінансових втрат до пошкодження репутації, регулювання та юридичної відповідальності.

Дослідження, представлені в Економічні та системні розгляди агентних веб-систем, також пояснюють нові виклики, пов’язані з концепцією агентного вебу, який діє в багатозадачних, міжкордонних, машинних ринках. Це описує деякі попередні, напрямні засоби управління, включаючи агентів нагляду та машинозчитувану політику, з акцентом на інклюзивному прийнятті під нерівними обмеженнями ресурсів.

Проти цього системи управління повинні встановити обмеження та засоби контролю щодо того, як багато система AI може автономно обробляти без затвердження людини. їм потрібно встановити ясні обмеження, обмежити доступ до інструментів та функцій авторизації, а також дозволити конкретні точки проектування для обов’язкової перевірки людини. Усі компоненти робочого процесу повинні бути протестовані, включаючи з’єднання та взаємодію між агентами, де часто відбуваються помилки. Кожна дія повинна бути записана для слідування та засоби контролю повинні бути встановлені для деактивації системи, коли це потрібно для управління цим ризиком.

Майбутнє Відповідального AI

AI пропонує безпрецедентні можливості для трансформації того, як компанії працюють, інновують, доставляють цінність, та Відповідальний AI підтримує це. Інтеграція Відповідального AI у проектування, розробку та розгортання не тільки юридичний ризик та тактика мінімізації ризику, а також захищає та підвищує репутацію бренду, заробляє довіру клієнтів та розблокує ринкову перевагу, демонструючи зобов’язання щодо етичних інновацій.

Однак, щоб розблокувати його вигоди, компанії повинні вбудувати ключові відповідальні практики протягом всього циклу життя системи AI, починаючи з початку та закінчуючи кінцем. Це включає інтеграцію етичних та управлінських розглядов у стратегію даних, конфіденційність та збір, проектування систем, розробку, прозорість та справедливість, розгортання та моніторинг, а також построзгортання та демонтаж.

Для всіх, хто зайнятий розробкою та розгортанням AI, мандат є ясним: будувати відповідально, управляти проактивно, передбачати ризики сьогодні, завтра та далі, щоб забезпечити успішну еволюцію AI у світі, що змінюється.

Доктор Хетер Домінін, віце-президент та голова офісу Відповідальної AI та керування в HCLTech, є провідним експертом у сфері Відповідальної AI, консультуючи глобальні організації щодо етичного керування AI та впровадження.