Лідери думок
Подолання розриву довіри до ШІ
Впровадження штучного інтелекту досягає критичної точки перелому. Бізнес з ентузіазмом приймає ШІ, спонуканий його обіцянкою досягти покращень операційної ефективності на порядок. Недавнє дослідження Slack показало, що впровадження ШІ продовжує прискорюватися: використання ШІ на робочих місцях нещодавно зросло на 24%, а 96% опитаних керівників вважають, що «необхідно терміново інтегрувати ШІ у всі бізнес-процеси». Однак існує розширювальний розрив між користю від ШІ та зростаючою тривогою щодо його потенційних негативних наслідків. Лише 7% офісних працівників вважають, що результати роботи ШІ достатньо надійні, щоб допомагати їм у виконанні робочих завдань. Цей розрив очевидний у різкому контрасті між ентузіазмом керівників щодо інтеграції ШІ та скептицизмом співробітників, пов’язаним із такими факторами, як:
- Упередженість та справедливість: Системи ШІ можуть зберігати або навіть посилювати існуючі упередження, що призводить до несправедливих результатів.
- Конфіденційність та безпека: Співробітники хвилюються через те, як їхні персональні дані збираються, зберігаються та використовуються системами ШІ.
- Непрозоре прийняття рішень: Системи ШІ часто працюють як «чорні скриньки», приймаючи рішення, які людям важко зрозуміти або пояснити.
- Тривога щодо автоматизації: Існує поширений страх, що ШІ замінить людську працю, що призведе до безробіття та економічної нестабільності.
Роль законодавства у побудові довіри
Для вирішення цих багатогранних проблем довіри законодавчі заходи все частіше розглядаються як необхідний крок. Законодавство може відігравати ключову роль у регулюванні розробки та впровадження ШІ, тим самим посилюючи довіру. Ключові законодавчі підходи включають:
- Закони про захист даних та конфіденційність: Впровадження суворих законів про захист даних гарантує, що системи ШІ відповідально поводяться з персональними даними. Регламенти, такі як Загальний регламент щодо захисту даних (GDPR) в Європейському Союзі, створюють прецедент, вимагаючи прозорості, мінімізації даних та згоди користувачів. Зокрема, Стаття 22 GDPR захищає суб’єктів даних від потенційних негативних наслідків автоматизованого прийняття рішень. Недавні рішення Суду Європейського Союзу (CJEU) підтверджують право особи не піддаватися автоматизованому прийняттю рішень. У справі Schufa Holding AG, де мешканцю Німеччини було відмовлено в банківському кредиті на основі автоматизованої системи кредитних рішень, суд постановив, що Стаття 22 вимагає від організацій впровадження заходів для захисту прав на конфіденційність, пов’язаних із використанням технологій ШІ.
- Регулювання ШІ: Європейський Союз ратифікував Закон про ШІ ЄС (EU AIA), який має на меті регулювати використання систем ШІ на основі їх рівнів ризику. Закон включає обов’язкові вимоги до систем ШІ високого ризику, що охоплюють такі сфери, як якість даних, документація, прозорість та людський нагляд. Однією з основних переваг регулювання ШІ є сприяння прозорості та пояснюваності систем ШІ. Крім того, EU AIA встановлює чіткі рамки відповідальності, гарантуючи, що розробники, оператори та навіть користувачі систем ШІ несуть відповідальність за свої дії та результати впровадження ШІ. Це включає механізми відшкодування, якщо система ШІ завдає шкоди. Коли окремі особи та організації несуть відповідальність, це створює впевненість у тому, що системами ШІ керують відповідально.
Ініціативи щодо стандартів для сприяння культурі надійного ШІ
Компаніям не потрібно чекати на виконання нових законів, щоб встановити, чи відповідають їхні процеси етичним та надійним принципам. Регулювання ШІ працюють у тандемі з новими ініціативами щодо стандартів ШІ, які дозволяють організаціям впроваджувати відповідальне управління ШІ та найкращі практики протягом усього життєвого циклу систем ШІ, включаючи проектування, впровадження, розгортання та, зрештою, виведення з експлуатації. Національний інститут стандартів і технологій (NIST) у Сполучених Штатах розробив Рамки управління ризиками ШІ, щоб керувати організаціями в управлінні ризиками, пов’язаними з ШІ. Рамки структуровані навколо чотирьох основних функцій:
- Розуміння системи ШІ та контексту, в якому вона працює. Це включає визначення мети, зацікавлених сторін та потенційних впливів системи ШІ.
- Кількісна оцінка ризиків, пов’язаних із системою ШІ, включаючи технічні та нетехнічні аспекти. Це передбачає оцінку продуктивності, надійності та потенційних упереджень системи.
- Впровадження стратегій для пом’якшення виявлених ризиків. Це включає розробку політик, процедур та контролюючих заходів для забезпечення функціонування системи ШІ в межах допустимих рівнів ризику.
- Встановлення структур управління та механізмів відповідальності для нагляду за системою ШІ та її процесами управління ризиками. Це передбачає регулярні огляди та оновлення стратегії управління ризиками.
У відповідь на досягнення в технологіях генеративного ШІ NIST також опублікував Профіль генеративного штучного інтелекту в рамках Рамок управління ризиками штучного інтелекту, який надає рекомендації щодо пом’якшення специфічних ризиків, пов’язаних із фундаментальними моделями. Такі заходи охоплюють захист від зловмисного використання (наприклад, дезінформація, деградуючий контент, мова ненависті) та етичного застосування ШІ, що зосереджене на людських цінностях справедливості, конфіденційності, інформаційної безпеки, інтелектуальної власності та сталого розвитку. Крім того, Міжнародна організація зі стандартизації (ISO) та Міжнародна електротехнічна комісія (IEC) спільно розробили ISO/IEC 23894, всебіжний стандарт для управління ризиками ШІ. Цей стандарт забезпечує системний підхід до ідентифікації та управління ризиками протягом усього життєвого циклу ШІ, включаючи ідентифікацію ризиків, оцінку тяжкості ризику, вжиття заходів для його пом’якшення або уникнення, а також постійний моніторинг та огляд.
Майбутнє ШІ та громадська довіра
Поглядаючи вперед, майбутнє ШІ та громадської довіри, ймовірно, залежатиме від кількох ключових факторів, які є важливими для всіх організацій:
- Проведення комплексної оцінки ризиків для виявлення потенційних проблем відповідності. Оцініть етичні наслідки та потенційні упередження у ваших системах ШІ.
- Створення міжфункціональної команди, що включає фахівців з юридичних питань, відповідності, IT та науки про дані. Ця команда повинна відповідати за моніторинг змін у регулюванні та забезпечення дотримання вашими системами ШІ нових правил.
- Впровадження структури управління, яка включає політики, процедури та ролі для керування ініціативами ШІ. Забезпечте прозорість у операціях ШІ та процесах прийняття рішень.
- Проведення регулярних внутрішніх аудитів для забезпечення відповідності вимогам регулювання ШІ. Використовуйте інструменти моніторингу для відстеження продуктивності систем ШІ та дотримання регуляторних стандартів.
- Навчання співробітників етиці ШІ, регуляторним вимогам та найкращим практикам. Проводьте постійні навчальні сесії, щоб інформувати персонал про зміни в регулюванні ШІ та стратегіях відповідності.
- Ведення детальних записів про процеси розробки ШІ, використання даних та критерії прийняття рішень. Будьте готові генерувати звіти, які можна буде подати регуляторам за потреби.
- Побудова відносин з регуляторними органами та участь у громадських консультаціях. Надавайте відгуки щодо запропонованих нормативних актів і звертайтеся за роз’ясненнями, коли це необхідно.
Контекстуалізація ШІ для досягнення надійного ШІ
Зрештою, надійний ШІ залежить від цілісності даних. Залежність генеративного ШІ від великих наборів даних не рівнозначна точності та надійності результатів; якщо що, це суперечить обом стандартам. Генерація з посиланням на отриману інформацію (RAG) — це інноваційна техніка, яка «поєднує статичні LLM з даними, специфічними для контексту. І її можна розглядати як високоінформованого помічника. Того, що зіставляє контекст запиту з конкретними даними з комплексної бази знань». RAG дозволяє організаціям створювати контекстно-специфічні додатки, які відповідають очікуванням щодо конфіденційності, безпеки, точності та надійності. RAG покращує точність згенерованих відповідей шляхом отримання релевантної ін












