Лідери думок
Переповнення розриву довіри штучного інтелекту
Прийняття штучного інтелекту досягає критичної точки інфлексії. Бізнес з ентузіазмом приймає штучний інтелект, спонукаючи його обіцянкою досягти покращення операційної ефективності порядку величини.
Нещодавнє дослідження Slack показало, що прийняття штучного інтелекту продовжує прискорюватися, а використання штучного інтелекту на робочих місцях останнім часом зросло на 24%, а 96% опитаних виконавців вважають, що “це терміново інтегрувати штучний інтелект у свої бізнес-операції”.
Однак існує розширюючийся розрив між корисністю штучного інтелекту та зростаючою тривогою щодо його потенційних негативних наслідків. Лише 7% працівників вважають, що вивід штучного інтелекту достатньо надійний, щоб допомогти їм у робочих завданнях.
Цей розрив очевидний у різкій контрасті між ентузіазмом виконавців щодо інтеграції штучного інтелекту та скептицизмом працівників щодо таких факторів, як:
- Предвзяте ставлення та справедливість: системи штучного інтелекту можуть підтримувати або навіть посилювати існуючі упередження, що призводить до несправедливих результатів.
- Конфіденційність та безпека: працівники хвилюються про те, як їхні особисті дані збираються, зберігаються та використовуються системами штучного інтелекту.
- Непрозора прийняття рішень: системи штучного інтелекту часто працюють як “чорні скриньки”, приймаючи рішення, які важко зрозуміти або пояснити людям.
- Тревога щодо автоматизації: існує поширений страх, що штучний інтелект замініть людські роботи, що призведе до безробіття та економічної нестабільності.
Роль законодавства у створенні довіри
Для вирішення цих багаторівневих питань довіри законодавчі заходи все частіше розглядаються як необхідний крок. Законодавство може відігравати важливу роль у регулюванні розробки та впровадження штучного інтелекту, тим самим підвищуючи довіру. Ключові законодавчі підходи включають:
- Закони про захист даних та конфіденційність: впровадження суворих законів про захист даних гарантує, що системи штучного інтелекту обробляють особисті дані відповідально. Регуляції, такі як Регламент загальної захисту даних (GDPR) в Європейському Союзі, встановлюють прецедент, вимагаючи прозорості, мінімалізації даних та згоди користувача. Зокрема, стаття 22 GDPR захищає суб’єктів даних від потенційних негативних наслідків автоматизованого прийняття рішень. Нещодавні рішення Суду Європейського Союзу підтверджують право особи не підлягати автоматизованому прийняттю рішень. У справі Schufa Holding AG, де німецький резидент був відхилений для отримання банківського кредиту на основі автоматизованої системи кредитування, суд постановив, що стаття 22 вимагає від організацій впровадження заходів для захисту прав щодо використання технологій штучного інтелекту.
- Регуляції штучного інтелекту: Європейський Союз ратифікував Закон ЄС про штучний інтелект(Закон ЄС про штучний інтелект), який має на меті регулювати використання систем штучного інтелекту на основі їх рівня ризику. Закон включає обов’язкові вимоги для систем штучного інтелекту високого ризику, що охоплюють такі галузі, як якість даних, документація, прозорість та нагляд людини. Одним з основних переваг регуляцій штучного інтелекту є просування прозорості та пояснюваності систем штучного інтелекту. Крім того, Закон ЄС про штучний інтелект встановлює чіткі рамки відповідальності, забезпечуючи, що розробники, оператори та навіть користувачі систем штучного інтелекту несуть відповідальність за свої дії та наслідки впровадження штучного інтелекту. Це включає механізми для звернення у разі шкоди, заподіяної системою штучного інтелекту. Коли особи та організації несуть відповідальність, це створює впевненість у тому, що системи штучного інтелекту керуються відповідально.
Ініціативи зі стандартів для створення культури довіри до штучного інтелекту
Компанії не повинні чекати виконання нових законів, щоб визначити, чи їхні процеси відповідають етичним та довірчим керівним принципам. Регуляції штучного інтелекту працюють у тандемі з новими ініціативами зі стандартів штучного інтелекту, які надають організаціям можливість впроваджувати відповідальне керування штучним інтелектом та найкращі практики протягом усього життєвого циклу систем штучного інтелекту, включаючи проектування, впровадження, розгортання та подальше виведення з експлуатації.
Національний інститут стандартів і технологій (NIST) у Сполучених Штатах розробив рамку управління ризиками штучного інтелекту для керівництва організаціями у управлінні ризиками, пов’язаними зі штучним інтелектом. Рамка структурована навколо чотирьох основних функцій:
- Поняття системи штучного інтелекту та контексту, у якому вона працює. Це включає визначення мети, зацікавлених сторін та потенційних впливів системи штучного інтелекту.
- Квантитативна оцінка ризиків, пов’язаних із системою штучного інтелекту, включаючи технічні та нетехнічні аспекти. Це涉лює оцінку продуктивності системи, надійності та потенційних упереджень.
- Впровадження стратегій для мінімізації визначених ризиків. Це включає розробку політики, процедур та контролю для забезпечення того, що система штучного інтелекту працює в межах прийнятного рівня ризику.
- Створення структур керування та механізмів відповідальності для нагляду за системою штучного інтелекту та процесами управління ризиками. Це включає регулярні огляди та оновлення стратегії управління ризиками.
У відповідь на розвиток генеративних технологій штучного інтелекту NIST також опублікував Рамку управління ризиками штучного інтелекту: Профіль генеративного штучного інтелекту, який надає керівництво щодо мінімізації конкретних ризиків, пов’язаних із основними моделями. Такі заходи охоплюють захист від зловмисного використання (наприклад, дезінформація, шкідливий контент, ворожа мова), а також етичне застосування штучного інтелекту, яке зосереджується на людських цінностях справедливості, конфіденційності, інформаційної безпеки, інтелектуальної власності та сталості.
Крім того, Міжнародна організація зі стандартизації (ISO) та Міжнародна електротехнічна комісія (IEC) спільно розробили ISO/IEC 23894, комплексний стандарт управління ризиками штучного інтелекту. Цей стандарт надає системний підхід до визначення та управління ризиками протягом усього життєвого циклу штучного інтелекту, включаючи ідентифікацію ризиків, оцінку рівня ризику, лікування для мінімізації або уникнення його, а також постійний моніторинг та огляд.
Майбутнє штучного інтелекту та публічної довіри
Оглядаючи майбутнє, майбутнє штучного інтелекту та публічної довіри, ймовірно, залежатиме від кількох ключових факторів, які є важливими для всіх організацій:
- Проведення комплексної оцінки ризиків для визначення потенційних питань щодо дотримання вимог. Оцініть етичні наслідки та потенційні упередження у вашій системі штучного інтелекту.
- Створення міжфункціональної команди, яка включає юридичних, комплаєнс-спеціалістів, ІТ-спеціалістів та фахівців з даних. Ця команда повинна бути відповідальною за моніторинг змін у регуляторних вимогах та забезпечення того, що ваша система штучного інтелекту відповідає новим регуляціям.
- Впровадження структури керування, яка включає політику, процедури та ролі для керування ініціативами штучного інтелекту. Забезпечте прозорість у роботі штучного інтелекту та процесах прийняття рішень.
- Проведення регулярних внутрішніх аудитів для забезпечення дотримання регуляцій штучного інтелекту. Використовуйте інструменти моніторингу для відстеження продуктивності системи штучного інтелекту та дотримання регуляторних стандартів.
- Проведення освітніх програм для працівників щодо етики штучного інтелекту, регуляторних вимог та найкращих практик. Надавайте постійні тренінгові сесії для інформування персоналу про зміни у регуляціях штучного інтелекту та стратегіях дотримання вимог.
- Збереження детальних записів процесів розробки штучного інтелекту, використання даних та критеріїв прийняття рішень. Будьте готові генерувати звіти, які можуть бути подані регуляторам, якщо це необхідно.
- Будування відносин з регуляторними органами та участь у публічних консультаціях. Надавайте відгуки про запропоновані регуляції та шукайте роз’яснення, коли це необхідно.
Контекстуалізація штучного інтелекту для досягнення довірчого штучного інтелекту
У кінцевому підсумку, довірчий штучний інтелект залежить від цілісності даних. Залежність генеративного штучного інтелекту від великих наборів даних не означає точність та надійність виведення; якщо щось і є протилежним стандартам. Retrieval Augmented Generation (RAG) – це інноваційна техніка, яка “комбінує статичні моделі мови з контекстно-залежними даними. І це можна вважати дуже знаючи помічником. Тим, хто поєднує контекст запитів з конкретними даними з повної бази знань.” RAG дозволяє організаціям створювати контекстно-залежні застосунки, які відповідають очікуванням щодо конфіденційності, безпеки, точності та надійності. RAG покращує точність генерованих відповідей шляхом отримання відповідної інформації з бази знань або документального репозиторію. Це дозволяє моделі базувати свій вивід на точній та актуальній інформації.
RAG дозволяє організаціям створювати спеціалізовані застосунки штучного інтелекту, які є дуже точними, контекстно-залежними та адаптивними для покращення прийняття рішень, підвищення досвіду клієнтів, оптимізації операцій та досягнення значної конкурентної переваги.
Переповнення розриву довіри до штучного інтелекту включає забезпечення прозорості, відповідальності та етичного використання штучного інтелекту. Хоча немає єдиного答案у щодо підтримання цих стандартів, бізнес має у своєму розпорядженні стратегії та інструменти. Впровадження надійних заходів захисту даних та дотримання регуляторних стандартів будує довіру користувачів. Регулярні аудити систем штучного інтелекту щодо упереджень та неточностей забезпечують справедливість. Доповнення великих мовних моделей (LLM) спеціалізованим штучним інтелектом створює довіру шляхом включення власних баз знань та джерел даних. Взаємодія з зацікавленими сторонами щодо можливостей та обмежень штучного інтелекту також сприяє довірі та прийняттю
Довірячий штучний інтелект не легко досягнутий, але це життєво важливий обов’язок нашого майбутнього.












